Search (4 results, page 1 of 1)

  • × theme_ss:"Information"
  • × theme_ss:"Biographische Darstellungen"
  1. Buckland, M.K.: Emanuel Goldberg and his knowledge machine : information, invention, and political forces (2006) 0.02
    0.023720276 = product of:
      0.14232165 = sum of:
        0.14232165 = weight(_text_:geschichte in 1991) [ClassicSimilarity], result of:
          0.14232165 = score(doc=1991,freq=18.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.7876727 = fieldWeight in 1991, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1991)
      0.16666667 = coord(1/6)
    
    BK
    06.01 / Geschichte des Informations- und Dokumentationswesens
    54.01 / Geschichte der Informatik
    02.01 / Geschichte der Wissenschaft und Kultur
    Classification
    06.01 / Geschichte des Informations- und Dokumentationswesens
    54.01 / Geschichte der Informatik
    02.01 / Geschichte der Wissenschaft und Kultur
    RSWK
    Information und Dokumentation / Informationstechnik / Geschichte
    Subject
    Information und Dokumentation / Informationstechnik / Geschichte
    Theme
    Geschichte der Sacherschließung
  2. Roch, A.: Claude E. Shannon : Spielzeug, Leben und die geheime Geschichte seiner Theorie der Information (2009) 0.02
    0.015813518 = product of:
      0.09488111 = sum of:
        0.09488111 = weight(_text_:geschichte in 3485) [ClassicSimilarity], result of:
          0.09488111 = score(doc=3485,freq=8.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.5251152 = fieldWeight in 3485, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3485)
      0.16666667 = coord(1/6)
    
    Abstract
    Die vorliegende Monografie ist eine Geschichte der Informationstheorie Claude Elwood Shannons. Die dafür umfangreiche Auswertung bislang unbekannter Primärquellen wäre ohne der Geduld und der Unterstützung vieler Institutionen und Personen nicht möglich gewesen. Etwas mehr als acht Monate intensiver Forschung in verschiedenen Archiven waren nötig, um die Entstehung der Informationstheorie zwischen 1940 und 1949 vergleichend und schrittweise rekonstruieren zu können. Mehr als die Hälfte dieser Zeit war ein vergebliches Suchen in Findmitteln, Karteikarten, Datenbanken und Akten ohne weiterführende Hinweise. Heute - im Rückblick - kann ich verstehen, warum die Geschichte der Informationstheorie bislang noch nicht geschrieben werden konnte: Die Heterogenität der Akten an den unterschiedlichsten Orten, die an den relevanten Stellen geradezu fragmentarische Systematik der Findmittel und die vergangenen Sicherheitsinteressen der Vereinigten Staaten von Amerika während des Kalten Krieges hatten es Historikern bislang noch nicht ermöglicht, die interessante, aber auch geheime Geschichte der Informationstheorie Claude Shannons einer interessierten Öffentlichkeit vorzustellen ...
  3. Buckland, M.: Vom Mikrofilm zur Wissensmaschine : Emanuel Goldberg zwischen Medientechnik und Politik : Biografie (2010) 0.01
    0.011181846 = product of:
      0.06709108 = sum of:
        0.06709108 = weight(_text_:geschichte in 4996) [ClassicSimilarity], result of:
          0.06709108 = score(doc=4996,freq=4.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.3713125 = fieldWeight in 4996, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4996)
      0.16666667 = coord(1/6)
    
    Abstract
    Emanuel Goldberg (1881-1970), Chemiker, Ingenieur und Gründer von Zeis Ikon. Er beeinflusste maßgeblich die Bildtechnologie in der ersten Hälfte des 20. Jahrhunderts. Ist Emanuel Goldberg der Erfinder der ersten Suchmaschine? 1932 bereits entwickelte er ein Gerät, das das Suchen, Auffinden und Anzeigen von beliebig vielen Dokumenten möglich machte. Diese Statistische Maschine, wie er sie nannte, kamen verschiedenste Technologien auf kreative Art und Weise zusammen: Mikrofilm für das Speichern von Dokumenten; Lochkarten für die Spezifikation der Suchanfragen; Elektronik für das Erkennen von Codierungsmustern; Optik; Kinematographie für die beweglichen Teile; und Telefonie für die Dateneingabe. Goldberg leistete Pionierarbeit, denn die Statistische Maschine scheint der erste Bildschirmarbeitsplatz mit elektronischen Komponenten gewesen zu sein und darüber hinaus das erste System zur Auffindung von Dokumenten, das über die Lokalisation von Einträgen mit bereits bekannten Positionsadressen hinausging und sich dem wesentlich anspruchsvolleren Unterfangen widmete, Dokumente hinsichtlich bestimmter Suchkriterien suchen, auswählen und abbilden zu können. Michael Buckland zeichnet hier eine unglaubliche Lebensgeschichte nach, die nicht nur Goldbergs Kreativität und Genialität honoriert, sondern auch ein intellektueller und gesellschaftlicher Spiegel ist - einer historisch wichtigen Zeit für die Geschichte der Informationswissenschaften und Technologie.
    Theme
    Geschichte der Sacherschließung
  4. Albrecht, C.: ¬Die Entdeckung der Weitschweifigkeit : Über das Glück, mit Markow-Ketten zu rasseln: Die Schriften Claude E. Shannons (2001) 0.00
    7.2187616E-4 = product of:
      0.0043312567 = sum of:
        0.0043312567 = product of:
          0.01299377 = sum of:
            0.01299377 = weight(_text_:29 in 5643) [ClassicSimilarity], result of:
              0.01299377 = score(doc=5643,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.097163305 = fieldWeight in 5643, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5643)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Abstract
    Der entscheidende Aspekt in Shannons mathematischer Theorie der Kommunikation ist, "daß die tatsächliche Nachricht aus einem Vorrat von möglichen Nachrichten ausgewählt wurde". Ahnlich in der binären Logik des Fernsehquiz': Hier wählen die Ratenden aus einer endlichen Zahl beruflicher Lebenswelten, die gleichsam durch sogenannte "typische Handbewegungen" in diskrete Einheiten zerhackt werden. Mathematik und Unterhaltung kommen dabei in einem überein: in der Bedeutungslosigkeit. Shannons Modell abstrahiert davon, ob Nachrichten "Bedeutung" haben, also sich "auf bestimmte physikalische oder begriffliche Größen" beziehen. Ihn interessiert nur, ob und wie die Informationen im gegebenen Kanal störungsfrei übertragen werden können. Die Unterhaltungsindustrie wiederum, deren binäre Logik auf der Unterscheidung zwischen dem Interessanten und dem Langweiligen beruht, kümmert sich nicht darum, ob sich die generierte Information auf wirtschaftliche oder politische Größen bezieht. Sie interessiert nur, ob der Fernseher eingeschaltet bleibt. Entscheidend ist für Shannon der Aspekt der Auswahl etwa aus Buchstaben eines Alphabets, weil damit die Statistik zum Zug kommen kann. Damit läßt sich beispielsweise der Informationsgehalt der deutschen Schriftsprache messen. Nimmt man an, daß alle 30 Zeichen (29 Buchstaben plus Leerzeichen) gleich verteilt sind, ergibt sich ein Informationsgehalt von 4,9 bit. In Wirklichkeit ist jedoch die Wahrscheinlichkeit für die Wahl der verschiedenen Buchstaben, Silben und Wörter in einer natürlichen Sprache in jedem Stadium des Prozesses von der vorhergegangenen Auswahl abhängig. Einen solchen Prozeß bezeichnet die Wahrscheinlichkeitstheorie als Markow-Prozeß oder Markow-Kette. Berücksichtigt man also die Wahrscheinlichkeitsverteilung von Buchstabenfolgen, so erhält man einen viel kleineren mittleren Informationsgehalt der deutschen Schriftsprache, nämlich 1,6 bit.