Search (711 results, page 2 of 36)

  • × type_ss:"m"
  • × year_i:[2000 TO 2010}
  1. Eibl, M.: Visualisierung im Document Retrieval : Theoretische und praktische Zusammenführung von Softwareergonomie und Graphik Design (2003) 0.02
    0.019199513 = product of:
      0.047998782 = sum of:
        0.034042798 = weight(_text_:den in 5996) [ClassicSimilarity], result of:
          0.034042798 = score(doc=5996,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.32909638 = fieldWeight in 5996, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=5996)
        0.013955984 = product of:
          0.041867953 = sum of:
            0.041867953 = weight(_text_:29 in 5996) [ClassicSimilarity], result of:
              0.041867953 = score(doc=5996,freq=4.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.3297832 = fieldWeight in 5996, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5996)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Bei der Frage nach der Ästhetik in der Ergonomie hat sich in den letzten Jahren ein Wandel vollzogen. Noch in den 1990er Jahren missachteten Ergonomen ästhetische Faktoren in der Gestaltung von Benutzungsschnittstellen weitgehend. Inzwischen hat sich allerdings das gegenseitige Interesse von Ergonomen und Designern verstärkt, so dass sich Herausgeber und Autor entschlossen, mit dem vorliegenden Band eine erweiterte und aktualisierte Ausgabe der vergriffenen ersten Auflage vorzustellen. Einige Teile der Erstauflage sind gestrafft, andere aktualisiert. Ferner wurden Teile hinzugefügt, die den aktuellen Stand der Thematik in Theorie und Praxis widerspiegeln. Der nun vorliegende Forschungsbericht enthält über 50 neue Textseiten, 39 neue Abbildungen und fast 90 neu eingearbeitete Referenzen. Weitere Informationen zum Inhalt von Buch und CD-ROM sowie eine tabellarische Gbersicht über die Veränderungen gegenüber der ersten Auflage finden sich im Internet unter www.gesis.org/Information/Forschungsuebersichten/Forschungsberichte/Visualisierung2.htm, Informationen zur (vergriffenen) ersten Auflage unter www.gesis.org/Information/Forschungsuebersichten/Forschungsberichte/Visualisierung.htm.
    Date
    29. 1.2005 19:19:29
  2. Lux, C.; Sühl-Strohmenger, W.: Teaching Library in Deutschland : Vermittlung von Informationsund Medienkompetenz als Kernaufgabe für Öffentliche und Wissenschaftliche Bibliotheken (2004) 0.02
    0.01894063 = product of:
      0.031567715 = sum of:
        0.011944904 = product of:
          0.03583471 = sum of:
            0.03583471 = weight(_text_:f in 1427) [ClassicSimilarity], result of:
              0.03583471 = score(doc=1427,freq=4.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.24911162 = fieldWeight in 1427, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1427)
          0.33333334 = coord(1/3)
        0.01310308 = weight(_text_:den in 1427) [ClassicSimilarity], result of:
          0.01310308 = score(doc=1427,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.12666926 = fieldWeight in 1427, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1427)
        0.0065197325 = product of:
          0.019559197 = sum of:
            0.019559197 = weight(_text_:22 in 1427) [ClassicSimilarity], result of:
              0.019559197 = score(doc=1427,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15476047 = fieldWeight in 1427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1427)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Abstract
    "Teaching Library" - dies ist nicht nur der Titel dieses Buches, sondern vor allem auch eine selbstbewusste Behauptung in einem Land, in dem die Politik die Bibliotheken als Partner des Lernens noch nicht entdeckt hat, in dem die kommunalen Gremien in Zeiten des Sparens die Ausgaben für Bibliotheken als angeblich freiwillige Leistungen in dem Feld der Kultur neben Museen und Theatern munter kürzen. Dabei belegen die internationalen Studien (PISA, TIMSS etc.) zur Leistungsfähigkeit von Bildungssystemen bereits jetzt schon erhebliche Defizite des deutschen Bildungswesens, insbesondere hinsichtlich der Schlüsselqualifikationen, die unter "Literacy" gefasst werden. Als notwendige Antwort auf dieses Defizit empfehlen die Autoren dieses Buches die viel pointiertere Einbindung der gesamten Bibliotheken in Deutschland in unser Bildungssystem, um sowohl die Unentbehrlichkeit zu unterstreichen, als auch Synergien mit anderen Bildungsträgern zu nutzen. Das vorliegende Buch zeigt eindrucksvoll die erstaunliche Vielfalt der Initiativen und den Einfallsreichtum der Bibliothekare in dieser Hinsicht.
    Classification
    BF F 433.10
    Date
    22. 2.2008 14:17:00
    KAB
    BF F 433.10
  3. Bibliothek leben : Das deutsche Bibliothekswesen als Aufgabe für Wissenschaft und Politik. Eine Festschrift für Engelbert Plassmann zum 70. Geburtstag (2005) 0.02
    0.01894063 = product of:
      0.031567715 = sum of:
        0.011944904 = product of:
          0.03583471 = sum of:
            0.03583471 = weight(_text_:f in 1785) [ClassicSimilarity], result of:
              0.03583471 = score(doc=1785,freq=4.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.24911162 = fieldWeight in 1785, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1785)
          0.33333334 = coord(1/3)
        0.01310308 = weight(_text_:den in 1785) [ClassicSimilarity], result of:
          0.01310308 = score(doc=1785,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.12666926 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1785)
        0.0065197325 = product of:
          0.019559197 = sum of:
            0.019559197 = weight(_text_:22 in 1785) [ClassicSimilarity], result of:
              0.019559197 = score(doc=1785,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15476047 = fieldWeight in 1785, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1785)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Classification
    BF F 433.10
    Content
    Enthält die Beiträge: Retrospektiven Hans-Michael Schäfer: "Warum baut ein Privatmann eine Bibliothek" - Die Bibliothek Warburg inmitten der preußisch dominierten Bibliothekslandschaft zu Beginn des 20. Jahrhunderts; Horst Röhling: Slavica und Universales im wissenschaftlich-politischen und anthropologischen Kontext der Bibliothek; Dale Askey: Bibliothekstourismus zwischen Deutschland und den Vereinigten Staaten; Hans-Christoph Hobohm: Bibliothek als Zensur; Günter Pflug: Die Ausbildung des höheren Bibliotheksdienstes nach dem Zweiten Weltkrieg; Konrad Umlauf: Bibliotheksentwicklungsplanung 1966 bis 1973 und Bibliotheken 2007; Hans Joachim Meyer: Kontinuität und Neubeginn - Sächsische Bibliothekspolitik nach 1990; Siegfried Schmidt: Eine verpaßte Gelegenheit? - Gründe und Hintergründe zur Schließung der Fachhochschule für das öffentliche Bibliothekswesen Bonn; Walther Umstätter: Bibliothekswissenschaft im Spannungsfeld von Bibliotheksgeschichte, Nationalökonomie des Geistes und Informatik; Helmut Jüngling: Themen à la mode -Versuch einer informetrischen Analyse informationswissenschaftlicher Datenbanken; Perspektiven Wolfgang Schmitz: "Gemeinsam können wir viel bewirken" - Die gemeinsamen Fachbibliotheken von USB und Instituten an der Universität zu Köln; Jürgen Hering: Vier Buchstaben und etwas Farbe - Zum Erscheinungsbild der SLUB in der Öffentlichkeit; Ludger Syré: Haben Regionalbibliotheken eine Zukunft? - Zeitgemäße Betrachtungen zu einem scheinbar unzeitgemäßen Bibliothekstyp; Gudrun Behm-Steidel: Spezialbibliotheken in Deutschland - Nische im Bibliothekswesen oder Vorreiter im Informationsmanagement?; Regina Peeters: Auf der Kuhstraße zur Weltliteratur oder: Jedes Lesen ist Übersetzen; Holger Knudsen: Die International Association of Law Libraries (IALL); Torsten Seela: Bibliotheken und Museen als Informationsdienstleister -Konvergenzen und Divergenzen; Christian Uhlig: Buchhandel und Bibliotheken - Konfrontation oder Kooperation?; Reimar Riese: Macht unsere Bücher preiswerter! - Die Preiswürdigkeit von Büchern im Meinungsbild ihrer Konsumenten; Gerhard Hacker: Die Hybridbibliothek - Blackbox oder Ungeheuer?; Jürgen Seefeldt: Die Zukunft der Bibliothek - die Bibliothek der Zukunft: Visionen, Traumschlösser, Realitäten
    Date
    22. 3.2008 17:48:07
    KAB
    BF F 433.10
  4. Orna, E.: Information strategy in practice (2004.) 0.02
    0.018341208 = product of:
      0.04585302 = sum of:
        0.02293039 = weight(_text_:den in 3589) [ClassicSimilarity], result of:
          0.02293039 = score(doc=3589,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2216712 = fieldWeight in 3589, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3589)
        0.022922631 = product of:
          0.034383945 = sum of:
            0.017269647 = weight(_text_:29 in 3589) [ClassicSimilarity], result of:
              0.017269647 = score(doc=3589,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.13602862 = fieldWeight in 3589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3589)
            0.017114297 = weight(_text_:22 in 3589) [ClassicSimilarity], result of:
              0.017114297 = score(doc=3589,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.1354154 = fieldWeight in 3589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3589)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Date
    9. 3.1997 20:48:29
    30. 6.2005 20:52:22
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.203 (J. Plieningr): "Auf der Vorderseite des Umschlags des Paperbacks prangt eine Grafik von der Art, wie man sie im Inhalt des Buches häufig finden kann: Ein runder Kreis, Pfeile nach innen und außen deuten die In- und Outputs an, innen konzentrische Kreise. Ganz außen ist die Organisation zu finden, eins weiter drinnen die Business strategy und den Kern bildet die information strategy. Das strategische Management der Information stellt also in der Vorstellung der Autorin den Kern einer Firma oder Organisation dar. Das Werk soll die Anleitung zu einer solchen Strategie geben. Allerdings handelt es sich im Grunde bei diesem Buch um bekannte Inhalte, da es sich um die nahezu unveränderte, und auch in den Bibliographien der einzelnen Kapitel nicht aktualisierte zweite Auflage von Practical information policies aus dem Jahre 1999 handelt. Aus diesem "Klassiker" wurden die detaillierten Fallstudien entfernt und hier durch eine neue Einleitung und zwei abschließende Kapitel ergänzt. Die Autorin weist denn auch in der Einleitung darauf hin, dass dieses Buch als Studienausgabe des Werkes von 1999 anzusehen ist. Die Literaturangaben der übernommenen Artikel wurden nicht aktualisiert, jene der neu hinzugefügten Kapitel endet bei 2002. Beim Lesen entfaltet das Werk seinen ganzen Charme angelsächsischer Kompetenz, praktische Inhalte theoretisch angeleitet und doch mit immensem Praxisbezug durchzuarbeiten und auszubreiten. Der Inhalt ist häufig durch Aufzählungen und Auflistungen ergänzt, wobei als Kritikpunkt anzumerken -ist, dass die Aufzählungspunkte im Unterschied zu der Vorauflage nicht jeweils auf einer neuen Zeile stehen, sondern in den Zeilenfluss eingearbeitet wurden um Platz zu sparen. Dies geht auf Kosten der Obersichtlichkeit, was einem Werk, das laut Verlagstexten auch für Lehr- und Studierzwecke eingesetzt werden soll, schlecht ansteht.
  5. Kiesbauer, F. (Bearb.): INFODATA Thesaurus (2000) 0.02
    0.018030284 = product of:
      0.045075707 = sum of:
        0.025338966 = product of:
          0.076016895 = sum of:
            0.076016895 = weight(_text_:f in 3124) [ClassicSimilarity], result of:
              0.076016895 = score(doc=3124,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.52844554 = fieldWeight in 3124, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3124)
          0.33333334 = coord(1/3)
        0.01973674 = product of:
          0.059210222 = sum of:
            0.059210222 = weight(_text_:29 in 3124) [ClassicSimilarity], result of:
              0.059210222 = score(doc=3124,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.46638384 = fieldWeight in 3124, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3124)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    10.11.2001 21:19:29
  6. Teuteberg, F.: Agentenbasierte Informationserschließung im World Wide Web unter Einsatz von Künstlichen Neuronalen Netzen und Fuzzy-Logik (2001) 0.02
    0.017959265 = product of:
      0.044898164 = sum of:
        0.025338966 = product of:
          0.076016895 = sum of:
            0.076016895 = weight(_text_:f in 4921) [ClassicSimilarity], result of:
              0.076016895 = score(doc=4921,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.52844554 = fieldWeight in 4921, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4921)
          0.33333334 = coord(1/3)
        0.019559197 = product of:
          0.058677588 = sum of:
            0.058677588 = weight(_text_:22 in 4921) [ClassicSimilarity], result of:
              0.058677588 = score(doc=4921,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.46428138 = fieldWeight in 4921, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4921)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    22.12.2002 17:22:34
  7. Haller, K.; Popst, H.: Katalogisierung nach den RAK-WB : eine Einführung in die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (2003) 0.02
    0.017909555 = product of:
      0.044773884 = sum of:
        0.03662422 = weight(_text_:den in 1811) [ClassicSimilarity], result of:
          0.03662422 = score(doc=1811,freq=10.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.35405132 = fieldWeight in 1811, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1811)
        0.008149666 = product of:
          0.024448996 = sum of:
            0.024448996 = weight(_text_:22 in 1811) [ClassicSimilarity], result of:
              0.024448996 = score(doc=1811,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19345059 = fieldWeight in 1811, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1811)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Diese Einführung vermittelt alle wichtigen Kenntnisse über die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB), das maßgebliche deutsche Regelwerk für die alphabetische Katalogisierung. In die neue, sechste Ausgabe ist der aktuelle Regelwerksstand eingearbeitet. Das betrifft vor allem die Ansetzung von Personennamen. Nach dem einleitenden Kapitel über die Funktion, die äußeren Formen und die grundlegenden Begriffe des alphabetischen Katalogs werden die verschiedenen Eintragungsarten und ihre formale Gestaltung beschrieben. Das Hauptgewicht der Darstellung liegt bei den Bestimmungen über Haupt- und Nebeneintragungen unter Personennamen, Sachtiteln und Körperschaftsnomen sowie deren Ansetzung. Neben den Grundregeln für die Kotologisierung ein- und mehrbändiger Einzelwerke, Sammlungen und Sammelwerke werden auch die Sonderregeln für Kongressberichte, Bildbände, Bilderbücher, Kunstbände, Ausstellungskataloge, Hochschulschriften, Gesetze, Kommentare, Loseblattausgaben, Schulbücher, Reports und Normen behandelt. Die Bestimmungen für Vorlagen mit Einheitssachtiteln, Neben- und Paralleltiteln werden ebenso ausführlich dargestellt wie die schwierigen Fälle fortlaufender Sammelwerke mit Unterreihen. Alle Regeln werden durch Beispiele erläutert. Die Vorlagen werden meist mit ihrer Haupttitelseite wiedergegeben und den vollständigen Lösungen sowie erläuternden Texten gegenübergestellt. Die einschlägigen Paragraphen des Regelwerks werden im Text jeweils in Klammern angegeben. Auf die Belange der moschinenlesbaren Katalogisierung in Online-Datenbanken wird eingegangen. Das Kategorisieren der Katalogdaten wird in einem eigenen Kapitel dargestellt. Beispiele von Aufnahmen gemäß dem Maschinellen Austauschformat für Bibliotheken (MAB2) sollen helfen, die Grundbegriffe der gefelderten Erfassung zu verstehen. Das Lehrbuch Katalogisierung nach den RAK-WB ist eine unverzichtbare Grundlage für Studierende der bibliothekarischen Lehrinstitute und angehende Bibliothekare in der praktischen Ausbildung sowie für das Selbststudium und für die Weiterbildung bereits im Beruf stehender Bibliothekare.
    Date
    17. 6.2015 15:22:06
  8. Kleinwächter, W.: Macht und Geld im Cyberspace : wie der Weltgipfel zur Informationsgesellschaft (WSIS) die Weichen für die Zukunft stellt (2004) 0.02
    0.017713226 = product of:
      0.044283066 = sum of:
        0.0327577 = weight(_text_:den in 145) [ClassicSimilarity], result of:
          0.0327577 = score(doc=145,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31667316 = fieldWeight in 145, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=145)
        0.011525366 = product of:
          0.0345761 = sum of:
            0.0345761 = weight(_text_:22 in 145) [ClassicSimilarity], result of:
              0.0345761 = score(doc=145,freq=4.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.27358043 = fieldWeight in 145, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=145)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Im Dezember 2003 fand in Genf die erste Phase des UN-Weltgipfels zur Informationsgesellschaft (WSIS) statt. Die Gipfelkonferenz, an der mehr als 11.000 Vertreter von Regierungen, der privaten Wirtschaft und der Zivilgesellschaft teilnahmen, verhandelte u. a. Themen wie die Überwindung der digitalen Spaltung, Menschenrechte im Informationszeitalter, geistige Eigentumsrechte, Cyberkriminalität und Internet Governance. Das vorliegende Buch stellt den WSIS-Gipfel in den historischen Kontext 200-jähriger internationaler Verhandlungen zur Regulierung grenzüberschreitender Kommunikation -- von den Karlsbader Verträgen 1819 bis zur Entstehung des Internets. Es beschreibt die spannenden und kontroversen Auseinandersetzungen darüber, wie das Internet reguliert, Menschenrechte im Informationszeitalter garantiert, Sicherheit im Cyberspace gewährleistet, geistiges Eigentum geschützt und die digitale Spaltung überbrückt werden soll. Kleinwächter lässt keinen Zweifel daran, dass der WSIS-Kompromiss von Genf nicht mehr ist als der Beginn eines langen Prozesses zur Gestaltung der globalen Informationsgesellschaft der Zukunft. Die zweite Phase des Gipfeltreffens findet im November 2005 in Tunis statt. Das Buch enthält im Anhang die vom Gipfel verabschiedete Deklaration und den Aktionsplan sowie die von der Zivilgesellschaft angenommene Erklärung zur Zukunft der Informationsgesellschaft.
    Date
    20.12.2006 18:22:32
    Isbn
    3-936931-22-4
  9. Reischl, G.: ¬Die Google-Falle : die unkontrollierte Weltmacht im Internet (2008) 0.02
    0.017528959 = product of:
      0.043822397 = sum of:
        0.034042798 = weight(_text_:den in 2616) [ClassicSimilarity], result of:
          0.034042798 = score(doc=2616,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.32909638 = fieldWeight in 2616, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2616)
        0.009779599 = product of:
          0.029338794 = sum of:
            0.029338794 = weight(_text_:22 in 2616) [ClassicSimilarity], result of:
              0.029338794 = score(doc=2616,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23214069 = fieldWeight in 2616, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2616)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Mit der Suchmaschine Google, den Satelitenkarten auf Google Maps, mit der Volltextsuche in Google Books, mit dem Bildprogramm Picasa, dem Mail-Programm Google Mail, Google Docs und vielen weiteren Services entwickelt sich die Firma von Larry Page und Sergej Brin zur unkontrollierten Weltmacht im Internet: Immer mehr Firmen entwickeln Dienste und Geräte, die ausschließlich auf Google abgestimmt sind. Praktisch zählt nur mehr das Wissen, das man über Google findet. Diese Monopolstellung ist für eine Wissensgesellschaft gefährlich. Sie erleichtert die politische Zensur, wie sie bei Google in China stattfindet, und sie erleichtert das Ausspionieren unserer Privatsphäre. Denn jede Suchanfrage bleibt bei Google über Jahre gespeichert: In den USA wird derzeit eine Frau des Mordes an ihrem Mann verdächtigt, weil sie einmal in Google den Suchbegriff "murder" eingetippt hat.
    Date
    7. 4.2008 21:22:57
  10. Thissen, F.: Screen-Design-Manual : Communicating Effectively Through Multimedia (2003) 0.02
    0.017321808 = product of:
      0.04330452 = sum of:
        0.010557904 = product of:
          0.03167371 = sum of:
            0.03167371 = weight(_text_:f in 1397) [ClassicSimilarity], result of:
              0.03167371 = score(doc=1397,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.22018565 = fieldWeight in 1397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1397)
          0.33333334 = coord(1/3)
        0.032746617 = product of:
          0.049119923 = sum of:
            0.024670927 = weight(_text_:29 in 1397) [ClassicSimilarity], result of:
              0.024670927 = score(doc=1397,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19432661 = fieldWeight in 1397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1397)
            0.024448996 = weight(_text_:22 in 1397) [ClassicSimilarity], result of:
              0.024448996 = score(doc=1397,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19345059 = fieldWeight in 1397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1397)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Date
    22. 3.2008 14:29:25
  11. Wissenschaft online : Elektronisches Publizieren in Bibliothek und Hochschule (2000) 0.02
    0.017320052 = product of:
      0.04330013 = sum of:
        0.01493113 = product of:
          0.04479339 = sum of:
            0.04479339 = weight(_text_:f in 2039) [ClassicSimilarity], result of:
              0.04479339 = score(doc=2039,freq=4.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.31138954 = fieldWeight in 2039, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2039)
          0.33333334 = coord(1/3)
        0.028369 = weight(_text_:den in 2039) [ClassicSimilarity], result of:
          0.028369 = score(doc=2039,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 2039, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2039)
      0.4 = coord(2/5)
    
    Content
    Enthält die Beiträge: BALL, R.: Wissenschaft und Bibliotheken: Das aktive Engagement im Kontext elektronischen Publizierens; HUTZLER, E.: Elektronische Zeitschriften in wissenschaftlichen Bibliotheken; LOSSAU, N.: Retro-Digitalisierung; PHILIPP, J.: Virtueller Marktplatz für Bildung und Wissenschaft; THISSEN, F.: Elektronisches Publizieren oder elektronisches Kommunizieren: Hochschuldidaktik und Bibliotheken; MÜLLER, H.: Die rechtlichen Zusammenhänge im Rahmen des elektronischen Publizierens; BILO, A.: Anpassung oder Strukturwandel: Elektronische Publikationen und digitale Bibliotheken aus der Sicht bibliothekarischer Praxis; CÖLFEN, H. u. U. SCHMITZ: Hochschullehre im Internet: Anspruch und Praxis; REINHARDT, W.: Elektronische Dokumente im Bestandsaufbau wissenschaftlicher Bibliotheken; WEIß, B.: Dublin Core; MÖNNICH, M.: Formate und Datenbanken; KLOTZ-BERENDES, B. u. G. SCHÖNFELDER: Sicherungsverfahren für den Betrieb eines Dokumentenservers; HILF, E. u. K. ZIMMERMANN: Dissertationen via Internet; HOFFMANN, H.-W.: Kooperationen und Vernetzungen: Die Rolle der Verbünde; SCHWENS, U.: Die Rolle Der Deutschen Bibliothek; KELLER, A.: Elektronischer Zeitschriften: Eine Publikationsform mit Zukunft?; BERG, H.-P.: Nutzungsuntersuchungen für elektronische Publikationen; HOBOHM, H.-C.: Marketing elektronischer Publikationen; OßWALD, A.: Proaktives Wissensmanagement für Fachbereiche, Hochschule und externe Partner; KAMKE, H.-U.: Autorenbetreuung; NAYLOR, B.: Electronic publications in higher education librares in the UK, RUSCH-FEJA, D.: E-Publishing in Hochschulbibliotheken in den USA; ALTENHÖNER, R.: Entwicklung und Erprobung einer neuen multimedial unterstützen Lehr- und Lernform; REUTER, C. u. H. TRINKS-SCHULZ: Lernort Hochschulbibliothek; SCHOLZE, F.: Einbindung elektronischer Hochschulschriften in den Verbundkontext am Beispiel OPUS
  12. Andreasen, N.: Brave new brain : Geist - Gehirn - Genom (2002) 0.02
    0.017180324 = product of:
      0.04295081 = sum of:
        0.038061008 = weight(_text_:den in 2899) [ClassicSimilarity], result of:
          0.038061008 = score(doc=2899,freq=30.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.36794096 = fieldWeight in 2899, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2899)
        0.0048897993 = product of:
          0.014669397 = sum of:
            0.014669397 = weight(_text_:22 in 2899) [ClassicSimilarity], result of:
              0.014669397 = score(doc=2899,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.116070345 = fieldWeight in 2899, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2899)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    13. 7.2004 20:22:50
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2004, H.1., S.88-90 (W. Rotthaus): "Die Anspielung auf »Brave New World« ist offensichtlich gewollt. Aber den grenzenlosen Fort schrittsglauben und Optimismus, den Aldous Huxley in seinem Klassiker so trefflich ad absurdum führte, vertritt die Autorin selbst von ganzem Herzen! Nancy Andreasen, Neurowissenschaftlerin, Herausgeberin des »American Journal of Psychiatry« und Trägerin der »National Medal of Science«, schreibt im Vorwort, ihr Buch handle »von der Erschaffung einer >schönen, neuen Welt des Gehirns« « sowie »davon, wie die mächtigen Werkzeuge der Genetik und der Neurowissenschaften in den kommenden Jahrzehnten vereinigt werden, um gesündere, bessere und schönere Gehirne und Seelen zu schaffen«. Das irritiert. Aber die Verstörung legt sich bald, denn schon im ersten Kapitel nimmt Nancy Andreasen eine Position ein, die das genaue Gegenteil von Schwarz-Weiß-Malerei ist: Die heute noch so beliebten »falschen Gegensätze« wie psychisch gegen somatisch, Geist gegen Gehirn, Gene gegen Umwelt erschweren das Verständnis menschlichen Verhaltens und damit insbesondere auch psychischer Erkrankungen. Ein »Entweder-oder-Muster« hindert uns, die Dinge klar zu sehen und zu begreifen, während uns nur ein »Sowohl-als-auch-Denken« der richtigen Antwort näher bringt. »Der Verzicht auf diese falsche Gegensatzbildung ermöglicht uns ein viel besseres Ver ständnis davon, wie das Leben tatsächlich funktioniert« (Seite 42).
    Im Folgenden schildert die Autorin sehr anschaulich den aktuellen Wissensstand über den Aufbau, die Struktur und die funktionellen Prozesse des menschlichen Gehirns. Man versteht heute das Gehirn nicht mehr als eine Ansammlung unterschiedlicher Zentren für bestimmte Funktionen wie Erinnern, Sprechen und Fühlen. Vielmehr gibt es im Geflecht seiner vielen weit verzweigten Schaltkreise zwar einige quasi-spezialisierte Regionen; aber keine von ihnen ist in der Lage, autonom, ohne gleichzeitige Aktivierung anderer Regionen, eine geistige oder körperliche Aktion durchzuführen. Neuere Erkenntnisse zeigen, dass das Gehirn auch des Erwachsenen von dynamischer Natur ist. Seine Struktur entwickelt und verändert sich ständig auf Grund physikalischer, chemischer und psychischer Einflüsse - was den medizinischen Eingriff angeht: sowohl durch Psychopharmaka wie durch Psychotherapie. Ein Kapitel namens »Die Kartographie des Genoms« beschreibt Fortschritte in der Genetik. Die Gene diktieren nicht unserer Schicksal; vielmehr ist ihre Aktivität - die Genexpression - von den Umständen abhängig, denen sie ausgesetzt sind. Die dadurch bedingte Flexibilität ist »der Angelpunkt, an dem wir letztlich die neuen und wirkungsvollen nstrumente der Molekulargenetik und Molekularbiologie ansetzen können, um psychische und andere Erkrankungen zu behandeln und zu verhüten«. In dem anschließenden Kapitel »Die Kartographie des denkenden Gehirns« referiert die Autorin die beeindruckenden Erfolge der funktionellen Bildgebung, welche die Beobachtung des lebenden, funktionierenden Gehirns möglich gemacht haben. Der zweite Hauptteil des Buches ist den »großen« psychiatrischen Erkrankungen gewidmet: der Schizophrenie, den affektiven Störungen, den Demenzen und den Angststörungen. Die Autorin gibt einen anschaulichen und umfassenden Überblick über die Symptomatik, die Fragen nach den Ursachen und zur Psychopharmakotherapie - allerdings ganz und damit einseitig aus der Sicht der biologischen Psychiaterin, auch wenn sie die Möglichkeit psychotherapeutischer Einflussnahmen erwähnt. Dabei wird deutlich, dass der bisherige Nutzen des zuvor dargestellten immensen Forschungsaufwandes für die therapeutische Praxis noch relativ gering ist.
    Des ungeachtet lässt Andreasen zum Schluss ihren Fortschrittsoptimismus wieder zu Wort kommen, und das in einer sehr martialischen Sprache: »Wenn wir den Krieg gewinnen wollen, müssen wir wissen, welche Waffen geeignet sind und worauf wir sie richten müssen. Viele Jahre hindurch waren unsere Waffen primitiv: Gewehre, die die Munition streuten, Kanonen, die unpräzise und ungezielt schossen und Pfeile, die zu schwach waren, um das Ziel zu durchbohren ... Die Techniken der Molekularbiologie werden uns die Fähigkeit zur präzisen und durchschlagenden Bombardierungen verleihen, während uns unsere Karten des Gehirns die Ziele dafür zeigen.« Wieder einmal - so wie es eigentlich seit hundert Jahren geschieht - wird behauptet, dass wir unmittelbar vor dem großen Durchbruch stünden. Woher die Autorin diesen Optimismus bezieht, wird nicht recht erkennbar. Diesmal soll die nähere Untersuchung der Funktionsweise des Thalamus den Durchbruch zum Verständnis und zur Therapie zum Beispiel der Schizophrenie bringen. Ihre Formulierung ist nicht ohne unfreiwillige Komik: »Irgendwo in diesem kleinen Heuhaufen werden wir wohl die donquichottische Nadel finden, mit der wir einen der größten Giganten der psychischen Erkrankungen niederstrecken können.« Trotz dieser Einschränkungen ist das Buch jedem zu empfehlen, der sich über den aktuellen biologischen Forschungsstand orientieren will. Das Buch ist hervorragend übersetzt und sorgfältig ediert. Zahlreiche Abbildungen und Tabellen veranschaulichen das Gesagte und geben einen guten Einblick in das Forschungsfeld der Hirnforscher, Neurobiologen und Genetiker."
  13. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.02
    0.017123045 = product of:
      0.042807613 = sum of:
        0.005278952 = product of:
          0.015836855 = sum of:
            0.015836855 = weight(_text_:f in 38) [ClassicSimilarity], result of:
              0.015836855 = score(doc=38,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.110092826 = fieldWeight in 38, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=38)
          0.33333334 = coord(1/3)
        0.03752866 = weight(_text_:den in 38) [ClassicSimilarity], result of:
          0.03752866 = score(doc=38,freq=42.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.36279467 = fieldWeight in 38, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.4 = coord(2/5)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären.
    Zum Inhalt Auf einen kurzen einleitenden Abschnitt folgt eine Einführung in die grundlegende Methodik des automatischen Klassifizierens. Oberhauser erklärt hier Begriffe wie Einfach- und Mehrfachklassifizierung, Klassen- und Dokumentzentrierung, und geht danach auf die hauptsächlichen Anwendungen der automatischen Klassifikation von Textdokumenten, maschinelle Lernverfahren und Techniken der Dimensionsreduktion bei der Indexierung ein. Zwei weitere Unterkapitel sind der Erstellung von Klassifikatoren und den Methoden für deren Auswertung gewidmet. Das Kapitel wird abgerundet von einer kurzen Auflistung einiger Softwareprodukte für automatisches Klassifizieren, die sowohl kommerzielle Software, als auch Projekte aus dem Open-Source-Bereich umfasst. Der Hauptteil des Buches ist den großen Projekten zur automatischen Erschließung von Webdokumenten gewidmet, die von OCLC (Scorpion) sowie an den Universitäten Lund (Nordic WAIS/WWW, DESIRE II), Wolverhampton (WWLib-TOS, WWLib-TNG, Old ACE, ACE) und Oldenburg (GERHARD, GERHARD II) durchgeführt worden sind. Der Autor beschreibt hier sehr detailliert - wobei der Detailliertheitsgrad unterschiedlich ist, je nachdem, was aus der Projektdokumentation geschlossen werden kann - die jeweilige Zielsetzung des Projektes, die verwendete Klassifikation, die methodische Vorgehensweise sowie die Evaluierungsmethoden und -ergebnisse. Sofern Querverweise zu anderen Projekten bestehen, werden auch diese besprochen. Der Verfasser geht hier sehr genau auf wichtige Aspekte wie Vokabularbildung, Textaufbereitung und Gewichtung ein, so dass der Leser eine gute Vorstellung von den Ansätzen und der möglichen Weiterentwicklung des Projektes bekommt. In einem weiteren Kapitel wird auf einige kleinere Projekte eingegangen, die dem für Bibliotheken besonders interessanten Thema des automatischen Klassifizierens von Büchern sowie den Bereichen Patentliteratur, Mediendokumentation und dem Einsatz bei Informationsdiensten gewidmet sind. Die Darstellung wird ergänzt von einem Literaturverzeichnis mit über 250 Titeln zu den konkreten Projekten sowie einem Abkürzungs- und einem Abbildungsverzeichnis. In der abschließenden Diskussion der beschriebenen Projekte wird einerseits auf die Bedeutung der einzelnen Projekte für den methodischen Fortschritt eingegangen, andererseits aber auch einiges an Kritik geäußert, v. a. bezüglich der mangelnden Auswertung der Projektergebnisse und des Fehlens an brauchbarer Dokumentation. So waren z. B. die Projektseiten des Projekts GERHARD (www.gerhard.de/) auf den Stand von 1998 eingefroren, zurzeit [11.07.06] sind sie überhaupt nicht mehr erreichbar. Mit einigem Erstaunen stellt Oberhauser auch fest, dass - abgesehen von der fast 15 Jahre alten Untersuchung von Larsen - »keine signifikanten Studien oder Anwendungen aus dem Bibliotheksbereich vorliegen« (S. 139). Wie der Autor aber selbst ergänzend ausführt, dürfte dies daran liegen, dass sich bibliografische Metadaten wegen des geringen Textumfangs sehr schlecht für automatische Klassifikation eignen, und dass - wie frühere Ergebnisse gezeigt haben - das übliche TF/IDF-Verfahren nicht für Katalogisate geeignet ist (ibd.).
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  14. Haarmann, H.: Geschichte der Schrift (2002) 0.02
    0.016841482 = product of:
      0.028069137 = sum of:
        0.008446323 = product of:
          0.025338966 = sum of:
            0.025338966 = weight(_text_:f in 6084) [ClassicSimilarity], result of:
              0.025338966 = score(doc=6084,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.17614852 = fieldWeight in 6084, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6084)
          0.33333334 = coord(1/3)
        0.01310308 = weight(_text_:den in 6084) [ClassicSimilarity], result of:
          0.01310308 = score(doc=6084,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.12666926 = fieldWeight in 6084, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=6084)
        0.0065197325 = product of:
          0.019559197 = sum of:
            0.019559197 = weight(_text_:22 in 6084) [ClassicSimilarity], result of:
              0.019559197 = score(doc=6084,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15476047 = fieldWeight in 6084, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6084)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Date
    12. 2.1996 22:34:46
    Footnote
    Rez. in FR Nr.150 vom 2.7.2003, S.WB3 (F. Ufen): "Langsam spricht es sich herum. Die Schrift ist nicht, wie man lange geglaubt hat, gegen Ende des 4. Jahrtausends v Chr. in Mesopotamien erfunden worden. Es scheint auch nicht zu stimmen, dass nur Gesellschaften, die schon staatlich organisiert und in Klassen gespalten sind, sich Schriftsysteme austüfteln, um sie als Herrschaftsinstrumente einzusetzen. Nach dem heutigen Erkenntnisstand ist die Schrift um 5500 v Chr. in Europa erfunden worden - womit sie mehr als 2000 Jahre älter ist als die Hieroglyphen des prädynastischen Ägyptens und die archaischen piktographischen Zeichen der sumerischen Stadtstaaten. Die älteste Schrift war die Errungenschaft einer Zivilisation, die so egalitär organisiert war, dass sie ohne einen Staatsapparat auskam. Und offensichtlich haben nicht ökonomische, militärische oder politisch-administrative Erfordernisse zur Entwicklung des ersten Schriftsystems geführt, sondern die Notwendigkeit, mit den gesellschaftlichen Folgen einer verheerenden Naturkatastrophe fertig zu werden. Noch lange nach dem Ende der letzten Eiszeit war das Schwarze Meer ein Süßwassersee, der erheblich niedriger als das Mittelmeer lag und mit ihm nur durch eine Landbrücke verbunden war. Doch dann stieg der Wasserspiegel im Gebiet der Dardanellen dramatisch an, bis um 6800 v Chr. schließlich der Riegel gesprengt wurde. Das Mittelmeer brach durch, riesige Wassermassen ergossen sich ins Schwarze Meer und überschwemmten die neolithischen Siedlungen an seinen Küstengebieten. Die Küstenbewohner flohen und ließen sich später am Unterlauf der Donau - im heutigen Bulgarien und Rumänien - nieder, um dort die erste Hochkultur der Weltgeschichte zu begründen. Aus der Schrift, die sie nebenbei erfanden, sollte später die kretische Linear A hervorgehen. Mittlerweile wird vermutet, dass auch die Sumerer bei der Donauzivilisation Anleihen gemacht haben könnten. Die Schrift ist mindestens sechsmal erfunden worden - in Südosteuropa, Mesopotamien, Ägypten, Indien, China und Mesoamerika. Überall beginnt sie als Pikto- und Logographie, während der Übergang zur Phonographie erst spät erfolgt. Auf die Idee, mit dem alphabetischen Schreibprinzip zu experimentieren, ist man allerdings nur im Nahen Osten gekommen. Der Linguist Harald Haarmann hat mit seiner "Universalgeschichte der Schrift" einen Klassiker geschrieben. Wer nicht die Zeit hat zu lesen, was dort auf über 800 Seiten abgehandelt wird, kann aus diesem Abriss das Wesentliche über die Ursprünge, Entwicklungsstadien, Formen, Funktionen und Auswirkungen des Schriftgebrauchs erfahren. Ein hervorragendes Kompendium."
  15. Plassmann, E.; Rösch, H.; Seefeldt, J.; Umlauf, K.: Bibliotheken und Informationsgesellschaft in Deutschland : eine Einführung (2006) 0.02
    0.016620873 = product of:
      0.04155218 = sum of:
        0.008958678 = product of:
          0.026876032 = sum of:
            0.026876032 = weight(_text_:f in 726) [ClassicSimilarity], result of:
              0.026876032 = score(doc=726,freq=4.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.18683371 = fieldWeight in 726, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=726)
          0.33333334 = coord(1/3)
        0.0325935 = weight(_text_:den in 726) [ClassicSimilarity], result of:
          0.0325935 = score(doc=726,freq=22.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.3150858 = fieldWeight in 726, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=726)
      0.4 = coord(2/5)
    
    Abstract
    Gesellschaftliche Kommunikation stützt sich seit beinahe 3000 Jahren auf Bibliotheken und ihre Vorformen. Informationen, die unverfälscht zur Verfügung stehen sollen, werden seit der Erfindung und Verbreitung der Schrift auf den verschiedenen Trägermedien gespeichert und in Bibliotheken gesammelt, aufbewahrt, geordnet, bereitgestellt und vermittelt. In der jüngsten Zeit hat die Popularisierung der digitalen Medien die Informationskultur zu verändern begonnen: Bei vielen ist der Irrglaube entstanden, mit dem Internet stehe ein Medium zur Verfügung, das den Zugang zu allen Informationen von jedem Ort aus eröffne; so werden Bibliotheken mitunter als Fossilien der Gutenberg-Ära angesehen. Mit diesem Band wollen die Autoren belegen, dass professionelles Informationsmanagement in der Informationsgesellschaft wichtiger ist denn je. Darüber hinaus wollen sie unter Beweis stellen, dass Bibliotheken und bibliothekarische Techniken sich hervorragend dafür eignen - vorausgesetzt allerdings, die nötigen Innovationen und Kooperationen werden zügig eingeleitet und konsequent praktiziert.
    Classification
    BF F 430.00
    Footnote
    Rez. in Mitt. VÖB 60(2007) H.4, S.102-105 (O. Oberhauser): "Dieses Buch ist nicht als Neuauflage, sondern als Nachfolger des bekannten Werks von Busse/Ernestus zu sehen, das in seiner letzten Auflage (1999) bereits federführend von den Autoren Plassmann und Seefeldt verfasst wurde. Der nunmehr vorgelegte Band - man beachte auch den veränderten Titel (und Untertitel) - stammt von einem vierköpfigen Autoren-team. Die Verfasser kommen aus den bibliotheks- und informationswissenschaftlichen Instituten der Humboldt-Universität zu Berlin (Engelbert Plassmann, Konrad Umlauf) bzw. der Fachhochschule Köln (Hermann Rösch) und aus dem Bereich der Öffentlichen Bibliotheken (Jürgen Seefeldt, Landesbibliothekszentrum Rheinland-Pfalz). Das 2006 erschienene Buch wurde bereits mehrfach rezensiert, sodass die vorliegende Besprechung trotz Umfang und Bedeutung des Werkes nicht episch auszufallen braucht. In diesen Besprechungen war die Resonanz - sieht man von dem (teilweise unhaltbaren) Genörgel in ProLibris ab - über wiegend positiv, nach meinem Dafürhalten durchaus zu recht. So meint Ute Schwens, den Verfassern sei es "gelungen, eine komplexe Materie lesbar darzustellen und aus unterschiedlichen Blickwinkeln ein facettenreiches Bild zusammenzusetzen", Peter Vodosek spricht von "geschickt aufbereitete[r] Information, ideen- und faktenreich [.] kohärent dargeboten", Dieter Schmidmaier nennt den Band eine "Bereicherung der bibliotheks- und informationswissenschaftlichen Literatur". Dem kann ich mich voll anschließen, nicht so ganz dagegen der Meinung, das Buch sei vor allem für die Zielgruppe der Studierenden (Schmidmaier bzw. auch das Autorenteam) oder "für den Start ins Berufsleben" (Schwens) geeignet. Ich denke, dass es dafür in vielen Abschnitten bereits zuviel an Wissen und (bibliothekarischer) Erfahrung voraussetzt. Obwohl es gut geschrieben und gut lesbar ist, ist dies kein leicht zu lesendes Buch (wie selbst Schmidmaier konzediert). Eine richtige Einführung hätte viel umfangreicher, vielfach weiter ausholend, didaktisch erläuternd usw. geraten müssen - dann hätte sie aber keiner verlegt, gekauft und gelesen. So ist das eben. Dennoch: Jene, die sich im Bereich der Bibliotheks- und Informationswelt (Deutschlands) bereits ganz gut auskennen, werden wohl ungleich mehr von diesem Werk profitieren (falls sie es tatsächlich lesen) als blutige Anfänger (die dies als "Studis" vielleicht tun müssen).
    Zu Aufbau und Inhalt: In einer Einleitung werden die grundsätzlichen Positionen der Verfasser offengelegt. Diese sind vor allem: eine von der Systemtheorie Luhmanns geprägte (und gelegentlich dessen Fachjargon evozierende) soziologische Perspektive, das Verständnis einer integrativen Bibliotheks- und Informationswissenschaft, eine als modern zu bezeichnende historische Perspektive, sowie das Bestreben, neue Wege zu gehen und Aussagen von längerfristiger Gültigkeit zu treffen. Darauf folgen acht Kapitel Inhalt, ein neuntes als Zusammenschau und Schlusswort, ein Literaturverzeichnis, ein Verzeichnis der Internet-Adressen (leider ohne Datumsangaben), ein Abkürzungsverzeichnis sowie ein (gutes) Sachregister. Alle Kapitel sind wohl strukturiert und jeweils mit einem abschließenden "Ausblick» versehen. Behandelt werden: - die begrifflichen Grundlagen von Information und Bibliothek sowie die historischen/soziologischen Entwicklungslinien (Kapitel 1), - die strukturellen Entwicklungen der deutschen Bibliotheken hin zum funktional differenzierten Bibliothekssystem sowie die technischen Entwicklungen (Kapitel 2), - das deutsche Bibliothekswesen mit der Darstellung von Träger- und Förderinstitutionen, der Arten/Typen von Bibliotheken und ihrer rechtlichen Rahmenbedingungen (Kapitel 3), - Netze und Kooperationen, d.h. im einzelnen Verbände, Partner/Förderer des Bibliothekswesens, internationale und nationale Zusammenarbeit, insbesondere im Rahmen von Erwerbung, Erschließung, Benutzung, sowie die Entwicklungen hin zu einem nationalen Wissenschaftsportal (Kapitel 4), - die zahlreichen im Bibliotheks- und Informationswesen relevanten Normen, Standards, Richtlinien und Empfehlungen (Kapitel 5), - die von den Bibliotheken gebotenen - klassischen wie neuartigen - Dienstleistungen, insbesondere auch moderne (digitale) Formen von Informations- und Auskunftsdiensten (Kapitel 6), - Management (Marketing, Aufbau, Personal, Controlling, Werbung/PR) und insbesondere Bestandsmanagement (Kapitel 7), sowie - Ausbildungs- und Berufsfragen, von den Anfängen der Professionali-sierung im 19. Jahrhundert bis hin zu den die Spartentrennungen überwindenden modernen Studien- und Ausbildungsentwicklungen (Kapitel 8)."
    KAB
    BF F 430.00
  16. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.02
    0.01647489 = product of:
      0.041187223 = sum of:
        0.034667492 = weight(_text_:den in 1767) [ClassicSimilarity], result of:
          0.034667492 = score(doc=1767,freq=14.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.33513537 = fieldWeight in 1767, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.0065197325 = product of:
          0.019559197 = sum of:
            0.019559197 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.019559197 = score(doc=1767,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  17. Stüber, B.: ¬Das GERSHWIN-Konzept : Die Konzeption eines adaptiven Hilfesystems (2003) 0.02
    0.016392536 = product of:
      0.04098134 = sum of:
        0.0327577 = weight(_text_:den in 1993) [ClassicSimilarity], result of:
          0.0327577 = score(doc=1993,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31667316 = fieldWeight in 1993, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1993)
        0.008223643 = product of:
          0.024670927 = sum of:
            0.024670927 = weight(_text_:29 in 1993) [ClassicSimilarity], result of:
              0.024670927 = score(doc=1993,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19432661 = fieldWeight in 1993, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1993)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Trotz ihrer Vorteile gegenüber herkömmlichen Hypertext-Hilfen werden adaptive Hilfesysteme in kommerziellen Anwendungen nur sehr selten eingesetzt. Die Hauptgründe dafür liegen in einer fehlenden allgemeingültigen Konzeption beim Entwurf einer adaptiven Hilfe und den fehlenden Software-Werkzeugen, die die Entwicklung einer solchen Hilfe auf dieser Basis unterstützen. Zur Lösung dieser Problematik wird mit GERSHWIN eine Konzeption zur Entwicklung eines adaptiven Hilfesystems vorgestellt. Um eine entsprechende individuelle Hilfestellung zu ermöglichen, wird das Benutzerverhalten in der Anwendung beobachtet und mit Hilfe eines Planerkennungsverfahrens ausgewertet. GERSHWIN beschreibt eine Vorgehensweise für die Entwicklung eines adaptiven Hilfesystems und stellt für den praktischen Einsatz auch eine Programmbibliothek zur Verfügung. Voraussetzung für den Einsatz von GERSHWIN ist der Zugriff auf den Quellcode der Applikation, die eine adaptive GERSHWIN-Hilfe erhalten soll. Die Schnittstelle ist hierbei jedoch denkbar einfach - es werden lediglich vier Funktionen zur Kommunikation mit dem Hilfesystem benötigt. Existiert bereits ein Hilfesystem zur Applikation, so wird dieses durch die GERSHWIN-Hilfe vollständig ersetzt. Grundlage für die Planerkennung ist eine sogenannte Planbasis, die angibt, welche Aufgaben mit der Applikation wie erledigt werden können. Diese Inhalte werden anhand der Analyse der Funktionalitäten der Applikation und anhand von Benutzertests ermittelt. Zur Eingabe dieser Pläne enthält GERSHWIN einen visuellen Planeditor, der die Kernkomponenten zur Planerkennung und zur Visualisierung der Hilfeinformationen ergänzt. Implementierte Anwendungsbeispiele für die GERSHWIN-Hilfe sind die Unterstützung für eine sozialwissenschaftliche Recherchesoftware (GESINE-Thesaurus) und ein Kursblockungsprogramm (daVinci-Kursplan).
    Date
    29. 3.2003 9:50:16
  18. Greifeneder, E.: Online-Hilfen in OPACs : Analyse deutscher Universitäts-Onlinekataloge (2007) 0.02
    0.016362946 = product of:
      0.040907364 = sum of:
        0.0327577 = weight(_text_:den in 1935) [ClassicSimilarity], result of:
          0.0327577 = score(doc=1935,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31667316 = fieldWeight in 1935, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1935)
        0.008149666 = product of:
          0.024448996 = sum of:
            0.024448996 = weight(_text_:22 in 1935) [ClassicSimilarity], result of:
              0.024448996 = score(doc=1935,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19345059 = fieldWeight in 1935, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1935)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    OPACs (Online Public Access Catalogues) sind heute meist der einzige Zugang zu den Beständen einer Bibliothek, doch zeigt die Praxis, dass viele Nutzer Probleme bei der Bedienung elektronischer Kataloge haben. Ein guter OPAC muss deshalb über ein durchdachtes Online-Hilfesystem verfügen. Die Arbeit leistet eine Bestandsaufnahme und kritische Diskussion der an deutschen Universitäts-OPACs implementierten Online-Hilfesysteme. Außer den verschiedenen Formen von Hilfetexten werden dabei auch Hilfen wie Rechtschreibkorrektur, Suchergebnisfilter und Recommender miteinbezogen. Grundlagen der Analyse sind zum einen eine funktionsbezogene Klassifikation der Hilfen, zum anderen die Einführung der Begriffe Effektivität und Effizienz, die als Parameter zur Bestimmung des Nutzens eines Hilfesystems dienen. Als Ergebnis der Untersuchung stellt die Autorin Prinzipien eines effizienten Hilfesystems vor. Das Buch richtet sich an Leser aus den Bereichen Bibliotheks- und Informationswesen sowie Mensch-Maschine-Kommunikation.
    Content
    Vgl. auch den Beitrag: Greifeneder, E.: Hilfe auf allen Ebenen: ein Beitrag zur Forschung über Online-Hilfen in OPACs. In: Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.2, S.32-44.
    Date
    22. 6.2008 13:03:30
  19. Hartmann, F.: Medienphilosophie (2000) 0.02
    0.016186126 = product of:
      0.040465314 = sum of:
        0.012669483 = product of:
          0.038008448 = sum of:
            0.038008448 = weight(_text_:f in 725) [ClassicSimilarity], result of:
              0.038008448 = score(doc=725,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.26422277 = fieldWeight in 725, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=725)
          0.33333334 = coord(1/3)
        0.02779583 = weight(_text_:den in 725) [ClassicSimilarity], result of:
          0.02779583 = score(doc=725,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.26870608 = fieldWeight in 725, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=725)
      0.4 = coord(2/5)
    
    Abstract
    Nach einem Wort Vilem Flussers kommt der Theorie der Kommunikation jene Rolle zu, die früher die Philosophie spielte. Jedoch greifen die Medien in unsere Kommunikationsgesellschaft wesentlich weiter in den Vergesellschaftungsprozess ein, als es philosophische Texte jemals konnten. Der Autor versucht dennoch, verschiedene Aspekte der philosophischen Moderne im Hinblick auf ihre Reflexionspotential der gesellschaftlichen Funktion von Sprache, Texte, Medien zu rekonstruieren. Historisch bedeutsame Positionen der Erkenntnistheorie und Erkenntniskritik soeiwe der Sprachphilosophie und Sprachkritik werden ausführlich dargestellt
    Content
    Inhalt: Mediale Existenz. Ausgangspunkte - Imaginäre Räume: René Descartes, oder der Auftritt des modernen Autors - Aufklärung und Publizität: Von den Bedingungen der Vernunftwahrheit bei Kant - Die Schrift, doe Sprache, das Denken: Zur Konjunktur des sprachphilosophischen Ansatzes - Das Jenseits von Sprache: Fritz Mauthners Radikalisierung der Sprachphilosophie - Dekonstruktion des sprachlichen Zeichens: Peirce's Neubegründung einer Logik der Kommunikation (Semiotik) - Die befreite Symbolik: Frege und die Problematik logischen Ausdrucks - Sprechende Zeichen: Otto Neuraths internationale Bildsprache - Die wirkliche Wirklichkeit: Technik und Lebenswelt - Das Technische als Kultur: Der neuen Blick bei Walter Benjamin - Von der Reproduktion zur Simulation: Günther Anders Kulturapokalypse - Vom Auge zum Ohr: Innis, McLuhan und die technischen Dispositive der Kommunikation - Pendeln von Punkt zu Punkt: Flussers diskursive Epistemologie - Netzkultur: Leben im Datenstrom
  20. McCorduck, P.: Machines who think : a personal inquiry into the history and prospects of artificial intelligence (2004) 0.02
    0.015923478 = product of:
      0.039808694 = sum of:
        0.03569687 = weight(_text_:den in 4335) [ClassicSimilarity], result of:
          0.03569687 = score(doc=4335,freq=38.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.34508651 = fieldWeight in 4335, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4335)
        0.0041118213 = product of:
          0.012335463 = sum of:
            0.012335463 = weight(_text_:29 in 4335) [ClassicSimilarity], result of:
              0.012335463 = score(doc=4335,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.097163305 = fieldWeight in 4335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4335)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    5. 7.2018 19:00:29
    Footnote
    Rez. in. Spektrum der Wissenschaft. 2005, H.4, S.106-108 (A. Leßmöllmann): "Bereits im Titel steckt Stoff für ein paar grüblerische Nachmittage: »Maschinen, die denken«, provokant mit dem englischen Relativpronomen »who« formuliert, das doch für Belebtes, sogar Vernunftbegabtes reserviert ist. Denken Maschinen denn? Ja, sagt Pamela McCorduck in ihrer Nacherzählung der Geschichte der künstlichen Intelligenz (KI). Fußball spielende Roboter, Schach spielende Computerprogramme, »Such-Bots«, die auf kluge Weise Datenbanken durchstöbern - das sind alles Denker. Allerdings nutzen sie ihre künstlichen Hirne auf eigene Art. Maschinendenken kann ganz anders ablaufen als Menschendenken und trotzdem Denken sein, so das Credo der Autorin. Um das zu zeigen, entfacht sie ein DenkmaschinenFeuerwerk: Sie hat klug beobachtet, kennt die KI-Szene (zumindest in den USA) und nimmt uns mit auf eine unterhaltsame Reise durch die Geschichte der KI-Tüftelei. Eine Reise, die für sie mit der alten Frage verknüpft ist, wie wir Wissen sammeln, mit Maschinen spielen, denkende Maschinen zu unseren Gefährten machen: Bereits der hinkende Schmied und Zeussohn Hephaistos hatte intelligente Blasebälge, die ihm aufs Wort gehorchten. McCorduck berichtet vom Enthusiasmus der Pioniere wie des Kybernetikers Norbert Wiener (1894-1964) und des Mathematikers John von Neumann (1903-1957), auf den die Idee eines gespeicherten Computerprogramms zurückgeht; beide sahen sich durchaus in der Tradition eines Rabbi Löw (1520-1609), der im frühneuzeitlichen Prag den Golem erschuf. Sie erzählt von der folgenschweren Dartmouth-Konferenz 1956, bei der Marvin Minsky und andere, auch heute noch aktive Wortführer entschieden: Ein künstliches Hirn kann wie ein menschliches arbeiten, ohne notwendigerweise wie ein solches gebaut zu sein. Künstliches Denken kann also auf algorithmischem Weg funktionieren - indem ein Programm Befehle ausführt, genauer: Symbole verarbeitet. Nebenbei erklärt McCorduck auch dem technisch unwilligen Leser, wie das legendäre »Psychotherapie«-Programm Eliza (das zwar unintelligent, aber überraschend wirkungsvoll plapperte) und all die anderen Maschinchen im Inneren ticken. Auch die Kritiker lässt sie zu Wort kommen, Joseph Weizenbaum beispielsweise, den schon der Erfolg seiner Eliza ängstigte: Offenbar seien Menschen viel zu schnell bereit, in Maschinen Intelligenz - sogar Gefühl! - zu vermuten, und deswegen sollten wir lieber die Finger von der KI lassen, um uns nicht selbst eine Falle zu stellen. Das ist alles wunderbar durchdacht und mit Herzblut berichtet. Allerdings nicht neu: Der größte Teil des Buchs er schien bereits 1981, wurde in den USA ein Bestseller und in viele Sprachen übersetzt, auch ins Deutsche (»Denkmaschinen«).
    Die Neuauflage hat McCorduck mit einem Nachwort versehen. Auf diesen 100 Seiten durcheilt sie das fehlende Vierteljahrhundert: Die »Eiszeit« in den 1980ern, als sich niemand mehr von denkenden Maschinen zu reden traute - zu grandios waren selbst »einfache« Projekte, wie die maschinelle Übersetzung, mitsamt den investierten Forschungsmillionen den Bach hinuntergegangen. KI galt als Hort der Hybris und der haltlosen Versprechungen, die Idee, ein künstliches Gehirn zu erstellen, als absurd. Die Forschungsförderung, auch des Militärs, versiegte. Danach kam wieder Leben in die Eiswüste: »Deep Blue« schlug den Schachmeister Garri Kasparow; das künstliche Denken war plötzlich wieder salonfähig. Und auch die Ängste waren wieder da: Bill Joy, Erster Wissenschaftler des Betriebssysteme-Bauers Sun Microsystems, belebte passgenau vor der Jahrtausendwende auch deutsche Feuilletons, indem er vor einer Machtübernahme durch die Maschinen warnte. All das gibt einen guten Überblick. Die Inspiration der Erstauflage hat das Nachwort aber nicht: McCorduck reiht Ereignisse aneinander, spürt jedoch den tiefer liegenden Strömungen wenig nach. Überhaupt wirkt es verlegerisch ungeschickt, die letzten 25 Jahre als Appendix an das große Werk zu fügen. Denn in diesen Jahren hat eine Zäsur stattgefunden: Das »heroische« Zeitalter der KI - wie McCorduck es charakterisiert - ist in den meisten Labors längst abgeblasen worden. Heute spricht kaum noch jemand davon, eine intelligente Maschine schaffen zu wollen; selbst das Wort »Intelligenz« meidet man eher, um weder falsche Hoffnungen noch unnötige Ängste zu schüren. Bis auf wenige Ausnahmen wie den Roboterbauer Hans Moravec, der vollintegrierte und gesellschaftsfähige Kunstmenschen unverdrossen für das Jahr 2050 prophezeit, ist die KI pragmatisch geworden. Sie hat sich, wie McCorduck durchaus bemerkt, in viele Teildisziplinen aufgespalten und konzentriert sich aufs Machbare: Der Fußballroboter soll den Ball treffen, der Kanalkrabbler das Leck im Rohr finden, der Suchalgorithmus das richtige Ergebnis liefern, die Wissensbasis funktionieren. »Heroische« Großprojekte werden da eher mit schiefem Grinsen angesehen, wie die Wissensbasis »CyC« des Stanford-Professors Douglas Lenat, in der das gesamte Alltagswissen eines Menschen in Form von Regeln wie »Schneeweiß« und »Zahnarzt gelegentlich Schmerzen« codiert werden soll, um einer Maschine dadurch menschenähnliches Wissen einzuhauchen. Pamela McCorduck aber referiert über diese seit 1994 andauernde Hamsterarbeit stoisch ohne einen Anflug von Kritik. Auch die Hinwendung zum Körper schwingt bei ihr implizit mit, wenn sie die neuen Roboter bespricht, wird aber nicht als der Trend, der er ist, gewürdigt: Embodied AI, »verkörperte KI«, ermöglicht durch die boomende Sensortechnik, lagert viele Funktionen der zentralen Steuerung in die Peripherie aus, lässt also, anthropomorph gesprochen, den Körper zu Wort kommen und entlastet den Kopf. Ein schönes Pferd, auf das McCorduck hätte aufspringen können: Schließlich ist es genau ihr Metier, den Computer nicht bloß als Werkzeug, sondern als Erkenntnisobjekt zu nutzen, wie der Mensch sich selbst sieht - denn auch in die Philosophie haben ja Diskussionen zur Körperlichkeit Einzug gefunden. Weil sich so vieles geändert hat, wäre es vielleicht klug gewesen, ein neues Buch zu schreiben, statt einfach die neuen Entwicklungen an die alten anzuhängen. Und es ist wirklich schade, dass die Autorin, wie sie im Vorwort schreibt, nicht die Zeit fand, über die Grenzen der USA hinauszugehen. Auch in Lund, Darmstadt und Tokio werden interessante Dinge gebaut. Jedenfalls ist es inzwischen klar: »Machines who think« - dieser Satz ist an den Schläfen so grau wie viele der Pioniere der KI aus dem vergangenen heroischen Zeitalter. Heute ergänzt man den Ausspruch mit einem »nun ja, irgendwie - kind of«, zieht den Laborkittel an und schraubt weiter. Das Zeitalter der großen Versprechungen ist vorbei. Und das ist gut so."

Authors

Languages

  • d 510
  • e 175
  • m 7
  • f 6
  • es 2
  • ro 1
  • More… Less…

Types

  • s 182
  • i 15
  • el 7
  • x 7
  • b 1
  • fi 1
  • n 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications