Search (10 results, page 1 of 1)

  • × type_ss:"el"
  • × type_ss:"m"
  • × year_i:[2010 TO 2020}
  1. Lengsfeld, J.: Digital Era Framework : ein Bezugsrahmen für das digitale Informationszeitalter (2019) 0.01
    0.005042087 = product of:
      0.03781565 = sum of:
        0.03268884 = weight(_text_:und in 5486) [ClassicSimilarity], result of:
          0.03268884 = score(doc=5486,freq=24.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.5089658 = fieldWeight in 5486, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5486)
        0.0051268064 = product of:
          0.010253613 = sum of:
            0.010253613 = weight(_text_:information in 5486) [ClassicSimilarity], result of:
              0.010253613 = score(doc=5486,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.20156369 = fieldWeight in 5486, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5486)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Der »Digital Era Framework« ist ein Bezugsrahmen für das digitale Informationszeitalter. Gerichtet an Wissenschaft und Praxis gleichermaßen, bietet das Konzept einen umfassenden Ansatz zur Einordnung und Analyse von Phänomenen des Digitalen Wandels, der Digitalisierung und der Digitalen Transformation. Dem »Digital Era Framework« liegt dabei ein integrierter Ansatz zur Untersuchung des Wandels zugrunde, insofern als Ursprungszustand, Veränderung und Endzustand in einem einheitlichen Schema dargestellt werden können. Der Bezugsrahmen stellt die Information in den Mittelpunkt der Betrachtung und beruht auf zwei Ordnungsmomenten: der Form der Manifestation von Information einerseits und der Art der Applikation von Information andererseits. Dadurch wird ein zweidimensionaler Bezugsrahmen aufgespannt, der eine differenzierte Einordnung von Phänomen, Objekten und Geschehen gestattet. Anhand dieses Ordnungsmodells lassen sich insbesondere Systeme und Prozesse untersuchen und aufzeigen, wie sich deren Struktur, Interaktionsgefüge und Konfiguration durch die Digitalisierung verändern. Durch die begründete Systematisierung schafft der Bezugsrahmen eine Grundlage für Analysen, Erklärungen und Prognosen. Zugleich dient er als Basis für die Entwicklung und Bewertung von Strategien. Mit der Vorstellung des »Digital Era Framework« ist darüber hinaus das Ziel verbunden, zur Ausprägung einer adäquaten Fachterminologie beizutragen, indem eine begründete Nomenklatur vorgeschlagen wird, welche auf dem Bezugsrahmen aufbaut.
  2. Laßmann, G.: Asimovs Robotergesetze : was leisten sie wirklich? (2017) 0.00
    0.0038769871 = product of:
      0.029077401 = sum of:
        0.019262085 = weight(_text_:und in 4067) [ClassicSimilarity], result of:
          0.019262085 = score(doc=4067,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29991096 = fieldWeight in 4067, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4067)
        0.009815317 = product of:
          0.019630633 = sum of:
            0.019630633 = weight(_text_:22 in 4067) [ClassicSimilarity], result of:
              0.019630633 = score(doc=4067,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.19345059 = fieldWeight in 4067, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4067)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    In Simulationen treten bei Robotern innere Zustände immer dann auf, wenn Katastrophen wie der eigene Totalausfall drohen. Die bekannten Robotergesetze von Isaac Asimov sind schon mehr als 75 Jahre alt. Systematisch untersucht wurden sie bislang nicht, obgleich durch die technische Entwicklung in der Computertechnik das Erstellen von Regeln für Roboter immer drängender wird: Autonome Fahrzeug fahren auf unseren Straßen, das EU-Parlament diskutiert Roboterrechte und nicht nur der Deutsche Ethikrat befasst sich mit Pflegerobotern. Gunter Laßmann hat in seinem eBook Asimovs Robotergesetze philosophisch und technisch untersucht: Asimovs Robotergesetze. Was leisten sie wirklich?" Er erörtert, was ein Roboter ist und wie ein solcher Roboter nach dem heutigen Stand der Technik "denken" würde. Diskutiert wird, inwieweit Roboter individuell sein könnten und wer die Verantwortung für den Roboter trägt. Alle drei Robotergesetze werden erstmals simuliert, was teilweise zu unerwarteten Ergebnissen führt. Die Roboter werden durch Hinzunahme von Lernen weiterentwickelt, es werden die Unterschiede zwischen regelbasiertem Lernen und Deep Learning dargestellt und am aktuellen Beispiel erläutert.
    Date
    21. 1.2018 19:02:22
  3. Vernetztes Wissen - Daten, Menschen, Systeme : 6. Konferenz der Zentralbibliothek Forschungszentrum Jülich. 5. - 7. November 2012 - Proceedingsband: WissKom 2012 (2012) 0.00
    0.00347437 = product of:
      0.026057774 = sum of:
        0.023591138 = weight(_text_:und in 482) [ClassicSimilarity], result of:
          0.023591138 = score(doc=482,freq=18.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.3673144 = fieldWeight in 482, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=482)
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 482) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=482,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 482, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=482)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Informations- und Wissensvermittlung verlagern sich immer stärker in die digitale Welt. Möglich wird dies nicht zuletzt durch die voranschreitende Durchdringung aller Lebensbereiche durch das Internet. Wissen wird mehr und mehr zu vernetztem Wissen. Die Jülicher Konferenz WissKom2012 thematisiert die Anpassung an diese Entwicklung und ihre Mitgestaltung durch innovative Bibliotheksdienstleistungen. Der Konferenztitel "Vernetztes Wissen: Daten, Menschen, Systeme" deutet die wechselseitige Vernetzung unter- und miteinander an. Ziel ist, vorhandene Insellösungen zu verbinden und neue Konzepte für inhärent vernetzte Strukturen zu entwickeln. Mit der WissKom2012 "Vernetztes Wissen - Daten, Menschen, Systeme" greift die Zentralbibliothek des Forschungszentrums Jülich erneut Themen im Spannungsfeld von "Bibliothek - Information - Wissenschaft" in einer Konferenz interdisziplinär auf und versucht, neue Handlungsfelder für Bibliotheken aufzuzeigen. Diese sechste Konferenz der Zentralbibliothek thematisiert den immer wichtiger werdenden Bereich der Forschungsdaten und den nachhaltigen Umgang mit ihnen. Sie zeigt auf, was Interdisziplinarität konkret bedeutet und wie bislang isolierte Systeme vernetzt werden können und so Mehrwert entsteht. Der Konferenzband enthält neben den Ausführungen der Referenten zudem die Beiträge der Poster Session sowie den Festvortrag von Prof. Viktor Mayer-Schönberger mit dem Titel "Delete: Die Tugend des Vergessens in digitalen Zeiten".
  4. Internet Privacy : eine multidisziplinäre Bestandsaufnahme / a multidisciplinary analysis: acatech STUDIE (2012) 0.00
    0.0027794961 = product of:
      0.02084622 = sum of:
        0.018872911 = weight(_text_:und in 3383) [ClassicSimilarity], result of:
          0.018872911 = score(doc=3383,freq=18.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29385152 = fieldWeight in 3383, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3383)
        0.0019733086 = product of:
          0.0039466172 = sum of:
            0.0039466172 = weight(_text_:information in 3383) [ClassicSimilarity], result of:
              0.0039466172 = score(doc=3383,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.0775819 = fieldWeight in 3383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3383)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Aufgrund der so großen Bedeutung von Privatheit im Internet hat acatech, die Deutsche Akademie der Technikwissenschaften, 2011 ein Projekt initiiert, das sich mit dem Privatheitsparadoxon wissenschaftlich auseinandersetzt. In dem Projekt werden Empfehlungen entwickelt, wie sich eine Kultur der Privatheit und des Vertrauens im Internet etablieren lässt, die es ermöglicht, das Paradoxon aufzulösen. Wir verwenden hier den Begriff der Privatheit. Er deutet an, dass hier nicht nur der räumliche Begriff Privatsphäre gemeint ist, sondern auch das im europäischen Kontext wichtige Konzept der informationellen Selbstbestimmung einbezogen ist. Dieser Band legt die Ergebnisse der ersten Projektphase vor: eine Bestandsaufnahme von Privatheit im Internet aus verschiedenen Blickwinkeln. Kapitel 1 stellt die Wünsche und Befürchtungen von Internetnutzern und Gesellschaft im Hinblick auf ihre Privatheit vor. Sie wurden mithilfe sozialwissenschaftlicher Methoden untersucht. Ergänzend dazu untersucht das zweite Kapitel Privatheit im Cyberspace aus ethischer Perspektive. Das dritte Kapitel widmet sich ökonomischen Aspekten: Da viele Onlinedienstleistungen mit Nutzerdaten bezahlt werden, ergibt sich die Frage, was dies sowohl für den Nutzer und Kunden als auch für die Unternehmen bedeutet. Kapitel 4 hat einen technologischen Fokus und analysiert, wie Privatheit von Internettechnologien bedroht wird und welche technischen Möglichkeiten es gibt, um die Privatheit des Nutzers zu schützen. Selbstverständlich ist der Schutz von Privatheit im Internet nicht nur ein technisches Problem. Deshalb untersucht Kapitel 5 Privatheit aus rechtlicher Sicht. Bei der Lektüre der fünf Kapitel wird dem Leser sofort die Komplexität der Frage von Privatheit im Internet (Internet Privacy) bewusst. Daraus folgt die unbedingte Notwendigkeit eines interdisziplinären Ansatzes. In diesem Sinne wird die interdisziplinäre Projektgruppe gemeinsam Optionen und Empfehlungen für einen Umgang mit Privatheit im Internet entwickeln, die eine Kultur der Privatheit und des Vertrauens im Internet fördern. Diese Optionen und Empfehlungen werden 2013 als zweiter Band dieser Studie veröffentlicht.
    Theme
    Information
  5. Ernst-von-Glasersfeld-Lectures 2015 (2015) 0.00
    0.0020759143 = product of:
      0.031138714 = sum of:
        0.031138714 = weight(_text_:und in 2664) [ClassicSimilarity], result of:
          0.031138714 = score(doc=2664,freq=16.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.4848303 = fieldWeight in 2664, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2664)
      0.06666667 = coord(1/15)
    
    Abstract
    Der vorliegende Band dokumentiert die Ernst-von-Glasersfeld-Lectures 2015 an der Universität Innsbruck. Neben den Vorträgen von Siegfried J. Schmidt und Gebhard Rusch sind zwei weitere Beiträge aus dem Ernst-von-Glasersfeld- Archiv abgedruckt. Diese befassen sich in dokumentarischer und medienkünstlerischer Absicht mit dem Lana-Projekt und "Yerkish", der ersten Zeichensprache für Primaten, die der Philosoph und Kommunikationswissenschaftler Ernst von Glasersfeld (1917-2010) zusammen mit Piero Pisani Anfang der 70er Jahre an der University of Georgia entwickelte.
    Content
    Enthält die Beiträge: Siegfried J. Schmidt:vorläufig endgültig vorläufig - Philosophieren nach Ernst von Glasersfeld - Gebhard Rusch:Sicherheit und Freiheit - Jona Hoier, Markus Murschitz und Theo Hug: BANANA PERIOD - Ein Lichtprojekt an den Nahtstellen von Medienkunst und Wissenschaftskommunikation - Michael Schorner: Sprechen Sie Yerkish? - Ernst von Glasersfelds Beitrag zum LANA Projekt - zwischen Operationalismus und Radikalem Konstruktivismus.
  6. Jellen, R.: Wissen ohne Relevanz : Philosophen über Leben und Technik (2015) 0.00
    0.0020546224 = product of:
      0.030819334 = sum of:
        0.030819334 = weight(_text_:und in 3370) [ClassicSimilarity], result of:
          0.030819334 = score(doc=3370,freq=48.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.47985753 = fieldWeight in 3370, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3370)
      0.06666667 = coord(1/15)
    
    Abstract
    Haben sich Geisteswissenschaftler zu lange im postmodernen Dogmatismus ausgeruht und nichts wirklich Neues auf die Beine gestellt? Haben sie mit unscharfen "Buh-Wörtern" wie "Szientismus" und "Reduktionismus" Strohmänner aufgebaut, die es in der Wirklichkeit gar nicht gibt, die sich dafür aber umso besser angreifen und zerlegen lassen? Haben sie die auf neuen Möglichkeiten, die die Neurowissenschaften, die Verhaltensgenetik oder die digitale Technik boten, lediglich mit behäbiger Abscheu und mit Tabus reagiert und sich in ihren abgehobenen Elfenbeinturm zurückgezogen? Um das herauszufinden, hat Reinhard Jellen mit zehn Philosophen gesprochen: Der Wissenschaftsphilosoph Klaus Mainzer klärt ihn darüber auf, wie er mit Big Data und der Algorithmisierung der Welt umgeht. Thomas Metzinger zeigt, wie man in seinem Fach an den Schnittstellen zur Hirnforschung operiert. Klaus Kornwachs, der Physiker und Philosoph ist, legt dar, warum er glaubt, dass die Philosophie Probleme nicht direkt lösen, aber das Bewusstsein dafür schärfen kann. Und der Moralforscher Rainer Hegselmann glaubt, dass die Computersimulation "schon bald zum Methoden-Kanon einer Philosophie gehört, die auf der Höhe der Zeit sein will". Der Marxist Reinhard Meiners schwärmt dagegen nicht etwa von der Entwicklung der Produktivkräfte, sondern bemängelt eine "Fortschritts- und Wachstumsideologie". Eher skeptisch zeigt sich auch die Foucault-Expertin Petra Gehring, die der Philosophie nur eine begrenzte Vermittlungsfunktion zur Naturwissenschaft zubilligt. Der Literatur- und Medienwissenschaftler Joseph Vogl betrachtet Philosophie und Naturwissenschaft sogar als "zwei getrennte Kontinente". Der Derrida-Fachmann Hans-Jörg Rheinberger hat die Trennung als historisches Faktum akzeptiert. Für mehr Verwissenschaftlichung spricht sich hingegen der Münsteraner Tractatus-Preisträger Kurt Bayertz aus, der zugibt, dass sich die Philosophie zu "Weltfremdheiten" verleiten ließ.
    Content
    - "Der Philosophie kommt die Aufgabe der Kommunikation zu" - Klaus Mainzer über "Big Data" und die Algorithmisierung der Welt - "Eine Welt am Rande des Nervenzusammenbruchs" - Petra Gehring über die begrenzte Vermittlungsfunktion der Philosophie - Die normative Dimension - Thomas Metzinger über Philosophie, Gehirnforschung und marktkonforme Wissenschaften - Bewusstseinsschärfung statt direkte Problemlösung - Klaus Kornwachs über Philosophie, Technik und den Ideologiecharakter der Wirtschaftswissenschaften - "Zwei getrennte Kontinente" - Joseph Vogl über das Verhältnis von Wissen, Philosophie und Wissenschaft - Nachhaltigkeit und Naturwissenschaft - Reinhard Meiners über Ethik und Technik - Trennung als historisches Faktum akzeptieren - Hans-Jörg Rheinberger über Philosophie, Wissenschaft, das Experiment und Jacques Derrida - Gewinn aus Verwissenschaftlichung - Kurt Bayertz über Berührungspunkte und Trennendes in Wissenschaft und Philosophie - Umsichgreifen des Spezialistentums - Michael Hampe über die Professionalisierung in Philosophie und Wissenschaft und über wissenschaftliche Umbrüche - Digitaler Methoden-Kanon - Rainer Hegselmann über Philosophie und Computersimulation Vgl.: URN: urn:nbn:de:101:1-20150723405.
  7. Sprachtechnologie : ein Überblick (2012) 0.00
    0.001284139 = product of:
      0.019262085 = sum of:
        0.019262085 = weight(_text_:und in 1750) [ClassicSimilarity], result of:
          0.019262085 = score(doc=1750,freq=12.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29991096 = fieldWeight in 1750, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
      0.06666667 = coord(1/15)
    
    Abstract
    Seit mehr als einem halben Jahrhundert existieren ernsthafte und ernst zu nehmende Versuche, menschliche Sprache maschinell zu verarbeiten. Maschinelle Übersetzung oder "natürliche" Dialoge mit Computern gehören zu den ersten Ideen, die den Bereich der späteren Computerlinguistik oder Sprachtechnologie abgesteckt und deren Vorhaben geleitet haben. Heute ist dieser auch maschinelle Sprachverarbeitung (natural language processing, NLP) genannte Bereich stark ausdiversifiziert: Durch die rapide Entwicklung der Informatik ist vieles vorher Unvorstellbare Realität (z. B. automatische Telefonauskunft), einiges früher Unmögliche immerhin möglich geworden (z. B. Handhelds mit Sprachein- und -ausgabe als digitale persönliche (Informations-)Assistenten). Es gibt verschiedene Anwendungen der Computerlinguistik, von denen einige den Sprung in die kommerzielle Nutzung geschafft haben (z. B. Diktiersysteme, Textklassifikation, maschinelle Übersetzung). Immer noch wird an natürlichsprachlichen Systemen (natural language systems, NLS) verschiedenster Funktionalität (z. B. zur Beantwortung beliebiger Fragen oder zur Generierung komplexer Texte) intensiv geforscht, auch wenn die hoch gesteckten Ziele von einst längst nicht erreicht sind (und deshalb entsprechend "heruntergefahren" wurden). Wo die maschinelle Sprachverarbeitung heute steht, ist allerdings angesichts der vielfältigen Aktivitäten in der Computerlinguistik und Sprachtechnologie weder offensichtlich noch leicht in Erfahrung zu bringen (für Studierende des Fachs und erst recht für Laien). Ein Ziel dieses Buches ist, es, die aktuelle Literaturlage in dieser Hinsicht zu verbessern, indem spezifisch systembezogene Aspekte der Computerlinguistik als Überblick über die Sprachtechnologie zusammengetragen werden.
  8. Riley, J.: Understanding metadata : what is metadata, and what is it for? (2017) 0.00
    3.2888478E-4 = product of:
      0.0049332716 = sum of:
        0.0049332716 = product of:
          0.009866543 = sum of:
            0.009866543 = weight(_text_:information in 2005) [ClassicSimilarity], result of:
              0.009866543 = score(doc=2005,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.19395474 = fieldWeight in 2005, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2005)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Imprint
    Baltimore : National Information Standards Organization
  9. Allo, P.; Baumgaertner, B.; D'Alfonso, S.; Fresco, N.; Gobbo, F.; Grubaugh, C.; Iliadis, A.; Illari, P.; Kerr, E.; Primiero, G.; Russo, F.; Schulz, C.; Taddeo, M.; Turilli, M.; Vakarelov, O.; Zenil, H.: ¬The philosophy of information : an introduction (2013) 0.00
    3.1200753E-4 = product of:
      0.0046801125 = sum of:
        0.0046801125 = product of:
          0.009360225 = sum of:
            0.009360225 = weight(_text_:information in 3380) [ClassicSimilarity], result of:
              0.009360225 = score(doc=3380,freq=20.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.18400162 = fieldWeight in 3380, product of:
                  4.472136 = tf(freq=20.0), with freq of:
                    20.0 = termFreq=20.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3380)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    In April 2010, Bill Gates gave a talk at MIT in which he asked: 'are the brightest minds working on the most important problems?' Gates meant improving the lives of the poorest; improving education, health, and nutrition. We could easily add improving peaceful interactions, human rights, environmental conditions, living standards and so on. Philosophy of Information (PI) proponents think that Gates has a point - but this doesn't mean we should all give up philosophy. Philosophy can be part of this project, because philosophy understood as conceptual design forges and refines the new ideas, theories, and perspectives that we need to understand and address these important problems that press us so urgently. Of course, this naturally invites us to wonder which ideas, theories, and perspectives philosophers should be designing now. In our global information society, many crucial challenges are linked to information and communication technologies: the constant search for novel solutions and improvements demands, in turn, changing conceptual resources to understand and cope with them. Rapid technological development now pervades communication, education, work, entertainment, industrial production and business, healthcare, social relations and armed conflicts. There is a rich mine of philosophical work to do on the new concepts created right here, right now.
    Philosophy "done informationally" has been around a long time, but PI as a discipline is quite new. PI takes age-old philosophical debates and engages them with up-to-the minute conceptual issues generated by our ever-changing, information-laden world. This alters the philosophical debates, and makes them interesting to many more people - including many philosophically-minded people who aren't subscribing philosophers. We, the authors, are young researchers who think of our work as part of PI, taking this engaged approach. We're excited by it and want to teach it. Students are excited by it and want to study it. Writing a traditional textbook takes a while, and PI is moving quickly. A traditional textbook doesn't seem like the right approach for the philosophy of the information age. So we got together to take a new approach, team-writing this electronic text to make it available more rapidly and openly.
    Content
    Vgl. auch unter: http://www.socphilinfo.org/teaching/book-pi-intro: "This book serves as the main reference for an undergraduate course on Philosophy of Information. The book is written to be accessible to the typical undergraduate student of Philosophy and does not require propaedeutic courses in Logic, Epistemology or Ethics. Each chapter includes a rich collection of references for the student interested in furthering her understanding of the topics reviewed in the book. The book covers all the main topics of the Philosophy of Information and it should be considered an overview and not a comprehensive, in-depth analysis of a philosophical area. As a consequence, 'The Philosophy of Information: a Simple Introduction' does not contain research material as it is not aimed at graduate students or researchers. The book is available for free in multiple formats and it is updated every twelve months by the team of the p Research Network: Patrick Allo, Bert Baumgaertner, Anthony Beavers, Simon D'Alfonso, Penny Driscoll, Luciano Floridi, Nir Fresco, Carson Grubaugh, Phyllis Illari, Eric Kerr, Giuseppe Primiero, Federica Russo, Christoph Schulz, Mariarosaria Taddeo, Matteo Turilli, Orlin Vakarelov. (*) The version for 2013 is now available as a pdf. The content of this version will soon be integrated in the redesign of the teaching-section. The beta-version from last year will provisionally remain accessible through the Table of Content on this page."
    Theme
    Information
  10. Mixter, J.; Childress, E.R.: FAST (Faceted Application of Subject Terminology) users : summary and case studies (2013) 0.00
    1.6444239E-4 = product of:
      0.0024666358 = sum of:
        0.0024666358 = product of:
          0.0049332716 = sum of:
            0.0049332716 = weight(_text_:information in 2011) [ClassicSimilarity], result of:
              0.0049332716 = score(doc=2011,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.09697737 = fieldWeight in 2011, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2011)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Over the past ten years, various organizations, both public and private, have expressed interest in implementing FAST in their cataloging workflows. As interest in FAST has grown, so too has interest in knowing how FAST is being used and by whom. Since 2002 eighteen institutions (see table 1) in six countries have expressed interest in learning more about FAST and how it could be implemented in cataloging workflows. Currently OCLC is aware of nine agencies that have actually adopted or support FAST for resource description. This study, the first systematic census of FAST users undertaken by OCLC, was conducted, in part, to address these inquiries. Its purpose was to examine: how FAST is being utilized; why FAST was chosen as the cataloging vocabulary; what benefits FAST provides; and what can be done to enhance the value of FAST. Interview requests were sent to all parties that had previously contacted OCLC about FAST. Of the eighteen organizations contacted, sixteen agreed to provide information about their decision whether to use FAST (nine adopters, seven non-adopters).