Search (3 results, page 1 of 1)

  • × classification_ss:"SR 800 Informatik / Nachschlagewerke. Didaktik / Allgemeines, Nachschlagewerke, Ausbildung / Geschichte der Datenverarbeitung"
  1. Heintz, B.: ¬Die Herrschaft der Regel : zur Grundlagengeschichte des Computers (1993) 0.02
    0.024555234 = product of:
      0.0736657 = sum of:
        0.05561234 = weight(_text_:computer in 221) [ClassicSimilarity], result of:
          0.05561234 = score(doc=221,freq=4.0), product of:
            0.16231956 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.044416238 = queryNorm
            0.34261024 = fieldWeight in 221, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.046875 = fieldNorm(doc=221)
        0.01805336 = product of:
          0.03610672 = sum of:
            0.03610672 = weight(_text_:22 in 221) [ClassicSimilarity], result of:
              0.03610672 = score(doc=221,freq=2.0), product of:
                0.1555381 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044416238 = queryNorm
                0.23214069 = fieldWeight in 221, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=221)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 4.2007 12:26:52
    RSWK
    Computer / Geschichte 1940-1960 / Formalismus <Mathematik> / Turing-Maschine / Rationalisierung / Geschichte 1890-1940
    Subject
    Computer / Geschichte 1940-1960 / Formalismus <Mathematik> / Turing-Maschine / Rationalisierung / Geschichte 1890-1940
  2. Bexte, P.; Künzel, W.: Allwissen und Absturz : der Ursprung des Computers (1993) 0.01
    0.008548832 = product of:
      0.051292986 = sum of:
        0.051292986 = weight(_text_:computer in 722) [ClassicSimilarity], result of:
          0.051292986 = score(doc=722,freq=10.0), product of:
            0.16231956 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.044416238 = queryNorm
            0.31600004 = fieldWeight in 722, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.02734375 = fieldNorm(doc=722)
      0.16666667 = coord(1/6)
    
    Abstract
    Kaum eine Wissenschaft der Neuzeit dürfte so geschichtslos angetreten sein wie die Computertheorie. Die simulierte Gleichzeitigkeit alles je Geschriebenen, die der Bildschirm erzeugt, scheint die Beschäftigung mit der Historie abzuschaffen. Das System schluckt die Geschichte und läßt so vergessen, daß es seinerseits eine solche hat. Uns aber hat sie nicht mehr losgelassen, seit wir vor Jahren an an die Schriften des mittelalterlichen Theologikers Raimundus Lullus gerieten. Seine logischen Modelle haben wir in die Computersprachen Cobol sowie Assembler übertragen und sie in einen Berliner Großrechner eingegeben. So entstand aus einer bloßen Übersetzung das ablauffähige Programm "Ars Magna. Author: Raimundus Lullus, um 1300". Dieser älteste Systementwurf war uns der Tigersprung in das Vergangene, der das Kontinuum der Geschichtslosigkeit aufsprengt. Im Kurzschluß von Jetztzeit und Vergangenheit glühen Verbindungen auf, die scheinbar Bekanntes in neuem Licht erscheinen lassen. Daß die Elektronenhirne einen solch direkten Draht zu mittelalterlichen Gottesbeweisen haben, verlangt nach einer Spurensicherung neuer Art, nach einer besonderen Archäologie des Immateriellen. Die Spur führt auf ein ungesichertes Terrain, auf verschüttete Pfade durch zerbrochene Buchstäblichkeiten, die keine Kabbala mehr zusammenhält. Vertraute Oppositionsbegriffe, die den Dingen eine neuzeitliche Ordnung geben würden, wie Wissenschaft/Kunst, Subjekt/Objekt, Religion/Technik, greifen hier nicht mehr. Hier bedarf es einer anderen Lektüre. Und in solcher Überschreitung zeigen uns die alten Texte plötzlich die Spuren des Neuen. Die von Raimundus Lullus ab 1275 entwickelte Logik ist Gestalt geworden Kosmologie. Sie verkörpert Offenbarungswissen, demonstriert die Logik des Universums. In ihrem kombinatorischen Verfahren sind Gottesbeweis und Maschinenbau identisch, sie fallen zusammen, bilden keine Gegensätze. Mit ihr wird ein Feld eröffnet, das sich nicht durch Widersprüche strukturiert, sondern durch hemmungslose Kommunikation von anderweitig Getrenntem. Alles folgt hier ein und derselben Logik, einer Ars Combinatoria, die durch alle Bereiche geht. Sie durchmißt die gesamte Stufenleiter des Seins, von den Steinen, Pflanzen, Tieren, über Menschen, Himmel, Engel bis hinauf zu Gott und wieder hinab. So verbindet diese Logik Himmel und Erde, Asien und Europa, medizinischen und juristischen Körper, Musik und die Quadratur des Kreises etc. Diese Kombinatorik leistet also, was der Mythos älteren Kulturen bot: die Verknüpfung von allem mit allem. So entstehen Netzwerke, als deren ältester Programmierer sich Raimundus Lullus erweist. Seine Ars Magna liefert uns die Basis-Algorithmen, seine Tafeln geben uns den Code des Universums. Hierin berührt er sich mit einer Theorie des Universums als "big computer", wie kein Geringerer als Konrad Zuse sie in unseren Tagen vorgekegt hat. Lullus war der erste Hacker in den himmlischen Datenbanken.
    RSWK
    Kombinatorik / Geschichte 1270-1716 / Computer / Geschichte Anfänge
    Computer-Geschichte (ÖVK)
    Subject
    Kombinatorik / Geschichte 1270-1716 / Computer / Geschichte Anfänge
    Computer-Geschichte (ÖVK)
  3. Schmeh, K.: ¬Die WeIt der geheimen Zeichen : die faszinierende Geschichte der Verschlüsselung (2004) 0.01
    0.005461648 = product of:
      0.03276989 = sum of:
        0.03276989 = weight(_text_:computer in 1445) [ClassicSimilarity], result of:
          0.03276989 = score(doc=1445,freq=8.0), product of:
            0.16231956 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.044416238 = queryNorm
            0.20188503 = fieldWeight in 1445, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1445)
      0.16666667 = coord(1/6)
    
    Footnote
    Rez. in Spektrum der Wissenschaft 2005, H.3, S.104-106 (J. Müller-Quade) "Schon nach 30 Seiten kann kein Leser mehr ernsthaft an der Wichtigkeit der Kryptografie zweifeln. Geheimschriften waren schon im 19. Jahrhundert kriegsentscheidend, und das Entschlüsseln geheimer Botschaften hat sogar geholfen, ein Rätsel der Geschichtswissenschaften zu lösen. Das Buch gliedert 3500 Jahre Kryptografiegeschichte in drei Epochen. Deren erste, die Zeit der Verschlüsselung von Hand, überspannt den längsten Zeitraum, von der Antike bis zum Ersten Weltkrieg, nimmt aber in dem Buch den geringsten Platz ein, denn außer ein paar spannenden Geschichten gibt es zum Fortschritt der Kryptografie aus dieser Zeit nicht viel zu berichten. In der zweiten Epoche, dem Zeitalter der Verschlüsselungsmaschinen, überschlagen sich dagegen die Ereignisse. Eine Hauptrolle spielt dabei die legendäre deutsche Chiffriermaschine »Enigma«, die im Zweiten Weltkrieg von den Briten entschlüsselt wurde. Nach allgemein akzeptierter Meinung haben die Deutschen an der Sicherheit der Enigma nie gezweifelt, weswegen dreißig Jahre später die Nachricht von der Entschlüsselung sie wie ein Schock traf (Spektrum der Wissenschaft 6/1999, S. 26). Umso eindrucksvoller ist der Abschnitt »Hitlers letzte Maschinen« in Schmehs Buch, demzufolge diese Meinung in ihrer Allgemeinheit wahrscheinlich falsch ist. Die Epoche der Verschlüsselungsmaschinen zieht sich mit einigen spannenden Episoden bis in den Kalten Krieg hinein. Die dritte Epoche ist die der Verschlüsselung mit dem Computer und einer ihrer Höhepunkte die Lösung des Schlüsselaustauschproblems, etwa durch die scheinbar paradoxe Kryptografie mit veröffentlichtem Schlüssel (public key cryptography). Das Public-Key-Verfahren RSA dient als Beispiel für eine Funktion, deren Umkehrung nur mit einer »Falltür« (einer geheimen Zusatzinformation) möglich ist. Allerdings wird es in dieser Rohform heute nicht mehr angewandt. Vielmehr werden Nachrichten geschickt mit Zufallsdaten aufgefüllt, damit nicht gleiche Klartexte deterministisch immer auf denselben Chiffretext abgebildet werden. Selbst wenn der Angreifer schon einmal ein verschlüsseltes »ja« am Anfang eines Textes gesehen hat, kann er dasselbe Wort an derselben Stelle nicht wiedererkennen. Eine kleine Unstimmigkeit bei dem Zahlenbeispiel in der Box stört die Erklärung nicht. In einigen Kapiteln geht das Buch auch über das eigentliche Thema Verschlüsselungsverfahren hinaus. So ist die digitale Unterschrift eine völlig neue Anwendung der altehrwürdigen Kryptografie. Schmeh bringt an dieser Stelle nicht nur die technischen Aspekte, sondern auch die interessanten rechtlichen und politischen Konsequenzen der digitalen Signatur. Beim gesellschaftlichen Aspekt der Kryptografie bespricht das Buch so aktuelle Ereignisse, dass die geschichtliche Darstellung in den Hintergrund tritt.
    Das Buch beeindruckt durch eine große Vielfalt von Themen. So wird auch das Problem angesprochen, dass ein eigentlich sicheres Verfahren dadurch gefährdet sein kann, dass dem Angreifer Seitenkanäle der Information, wie etwa der Stromverbrauch einer Chipkarte, zur Verfügung stehen. Potenzielle Bedrohungen gegenwärtiger Verschlüsselungsverfahren sind der DNA-Computer und der Quantencomputer. Aber man hat die Aussicht, den Teufel mit dem Beelzebub auszutreiben, nämlich den Quantencomputer mit der Quantenkryptografie. Nicht ausdrücklich in dem Buch angesprochen ist das Problem der Authentifikation von Nachrichten. Der Empfänger einer Nachricht muss sich vergewissern, dass ihr Sender der ist, der er zu sein vorgibt. Sonst könnte sich ein Obeltäter bereits beim Schlüsselaustausch unbemerkt zwischen die beiden Parteien drängen und von da an jede Kommunikation unter ihnen unentdeckt verfälschen. Dagegen hilft auch das einzige nachweislich unknackbare Verschlüsselungsverfahren, der One-Time-Pad, nicht, da ein Angreifer gezielt »Bits kippen« und so die Nachricht, ohne sie zu entschlüsseln, verfälschen kann. Da selbst Fachbücher kaum auf dieses Problem hinweisen, wurde der One-Time-Pad bereits - nutzlos - in kommerzielle quantenkryptografische Programme eingebaut. Die in dem Buch besprochenen digitalen Signaturen können solche Probleme lösen, solange man nicht auf nachweislicher Unknackbarkeit besteht. Schmeh widmet sich auch den so genannten Hash-Funktionen, die aus einer großen Datei eine kurze Kennnummer errechnen und damit etwa Signaturverfahren beschleunigen können, da es genügt, diese Kennnummer zu signieren.
    LCSH
    Data encryption (Computer science) / History
    Subject
    Data encryption (Computer science) / History