Search (2934 results, page 3 of 147)

  • × type_ss:"m"
  1. Anderson, J.R.: Kognitive Psychologie : eine Einführung (1989) 0.05
    0.051485084 = product of:
      0.10297017 = sum of:
        0.04530031 = weight(_text_:von in 7664) [ClassicSimilarity], result of:
          0.04530031 = score(doc=7664,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.35372335 = fieldWeight in 7664, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.09375 = fieldNorm(doc=7664)
        0.057669856 = product of:
          0.08650478 = sum of:
            0.008461362 = weight(_text_:a in 7664) [ClassicSimilarity], result of:
              0.008461362 = score(doc=7664,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 7664, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7664)
            0.078043416 = weight(_text_:22 in 7664) [ClassicSimilarity], result of:
              0.078043416 = score(doc=7664,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.46428138 = fieldWeight in 7664, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7664)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Date
    22. 7.2000 19:14:53
    Editor
    Albert, A.
    Issue
    Aus dem Amerik. von J. Grabowski-Gellert. 2. Aufl.
  2. Kail, R.; Pellegrino, J.: Menschliche Intelligenz (1989) 0.05
    0.051485084 = product of:
      0.10297017 = sum of:
        0.04530031 = weight(_text_:von in 752) [ClassicSimilarity], result of:
          0.04530031 = score(doc=752,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.35372335 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.09375 = fieldNorm(doc=752)
        0.057669856 = product of:
          0.08650478 = sum of:
            0.008461362 = weight(_text_:a in 752) [ClassicSimilarity], result of:
              0.008461362 = score(doc=752,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.09375 = fieldNorm(doc=752)
            0.078043416 = weight(_text_:22 in 752) [ClassicSimilarity], result of:
              0.078043416 = score(doc=752,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.46428138 = fieldWeight in 752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=752)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Date
    22. 7.2000 19:29:41
    Issue
    Aus dem Amerik. von A. Hildebrandt-Essig. 2. Aufl.
  3. Dewdney, A.K.: Reise in das Innere der Mathematik (2000) 0.05
    0.051485084 = product of:
      0.10297017 = sum of:
        0.04530031 = weight(_text_:von in 4727) [ClassicSimilarity], result of:
          0.04530031 = score(doc=4727,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.35372335 = fieldWeight in 4727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.09375 = fieldNorm(doc=4727)
        0.057669856 = product of:
          0.08650478 = sum of:
            0.008461362 = weight(_text_:a in 4727) [ClassicSimilarity], result of:
              0.008461362 = score(doc=4727,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 4727, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4727)
            0.078043416 = weight(_text_:22 in 4727) [ClassicSimilarity], result of:
              0.078043416 = score(doc=4727,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.46428138 = fieldWeight in 4727, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4727)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Content
    Einheitssacht.: A mathematical mystery tour
    Date
    19. 7.2002 22:04:42
    Issue
    Aus dem Amerikan. von Michael Zillgitt.
  4. Gardner, H.: Dem Denken auf der Spur : der Weg der Kognitionswissenschaft (1989) 0.05
    0.051485084 = product of:
      0.10297017 = sum of:
        0.04530031 = weight(_text_:von in 5436) [ClassicSimilarity], result of:
          0.04530031 = score(doc=5436,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.35372335 = fieldWeight in 5436, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.09375 = fieldNorm(doc=5436)
        0.057669856 = product of:
          0.08650478 = sum of:
            0.008461362 = weight(_text_:a in 5436) [ClassicSimilarity], result of:
              0.008461362 = score(doc=5436,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 5436, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5436)
            0.078043416 = weight(_text_:22 in 5436) [ClassicSimilarity], result of:
              0.078043416 = score(doc=5436,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.46428138 = fieldWeight in 5436, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5436)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Date
    22. 7.2000 19:07:17
    Footnote
    Original: 'The mind's new science: a history of the cognitive revolution' 1985. - Rez. in: FAZ vom 20.12.1989 (S. Strohschneider)
    Issue
    Aus d. Amerikanischen von E.D. Drolshagen.
  5. ¬Der Brockhaus Naturwissenschaft und Technik (2002) 0.05
    0.050110135 = product of:
      0.10022027 = sum of:
        0.026425181 = weight(_text_:von in 597) [ClassicSimilarity], result of:
          0.026425181 = score(doc=597,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.20633863 = fieldWeight in 597, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=597)
        0.07379509 = product of:
          0.11069263 = sum of:
            0.004935794 = weight(_text_:a in 597) [ClassicSimilarity], result of:
              0.004935794 = score(doc=597,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 597, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=597)
            0.105756834 = weight(_text_:z in 597) [ClassicSimilarity], result of:
              0.105756834 = score(doc=597,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.41278675 = fieldWeight in 597, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=597)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Dieses neue, umfassende und verständlich formulierte Nachschlagewerk von A bis Z entstand als Koproduktion der renommierten Wissenschaftsund Lexikonverlage Brockhaus Verlag und Spektrum Akademischer Verlag. Hier finden Lehrer, Wissenschaftler und Fachleute, aber auch interessierte Laien, Schüler und Studenten alles, um sich einen Einblick in Grundlagen und neueste Entwicklungen zu verschaffen. - Umfassende und verständliche Darstellung der Fachbegriffe aus Naturwissenschaft und Technik - Rund 20.000 Artikel mit 45.000 Stichwörtern - Übersichtliches, modernes durchgehend vierfarbiges Seitenlayout - Rund 3.000 Abbildungen und ca. 350 Tabellen - 75 Essays zu speziellen Themenbereichen - Auch als Medienpaket erhältlich mit CD-ROM und Zugangsberechtigung zum Internetportal: Zugriff auf die komplette Substanz, aktuelle Nachrichten, vertiefende Zusatzinformationen und weiterführende Weblinks.
  6. Kuhlen, R.: Hypertext : ein nichtlineares Medium zwischen Buch und Wissensbank (1991) 0.05
    0.04831149 = product of:
      0.09662298 = sum of:
        0.03698755 = weight(_text_:von in 343) [ClassicSimilarity], result of:
          0.03698755 = score(doc=343,freq=12.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.28881392 = fieldWeight in 343, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=343)
        0.05963543 = product of:
          0.089453146 = sum of:
            0.003988724 = weight(_text_:a in 343) [ClassicSimilarity], result of:
              0.003988724 = score(doc=343,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.072065435 = fieldWeight in 343, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=343)
            0.085464425 = weight(_text_:z in 343) [ClassicSimilarity], result of:
              0.085464425 = score(doc=343,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.33358207 = fieldWeight in 343, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=343)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Hypertext, eine neue Art der Informationsdarstellung, ist innerhalb weniger Jahre zu einem auf zahlreichen Fachkonferenzen diskutierten Thema im Umfeld von Informatik, Informationswissenschaft, K?nstlicher Intelligenz, Linguistik, Psychologie und Lerntheorie geworden. Die Faszination, die von diesem Medium auf Forschung, Entwicklung und Anwendung gleicherma~en ausgeht, beruht auf der prinzipiell nichtlinearen Organisation der Hypertexteinheiten und den benutzerfreundlichen Formen des ebenfalls nichtlinearen, flexiblen Zugriffs auf die Einheiten in einem Hypertextsystem. In dieser Einf?hrung in die Hypertextmethodik werden die wesentlichen Elemente von Hypertextsystemen, die Informationseinheiten und Verkn?pfungsarten sowie die hypertextspezifischen Navigationsformen, ausf?hrlich theoretisch und anschaulich am Beispiel existierender kommerzieller und experimenteller Hypertextsysteme behandelt. Besonderer Wert wird auf den Zusammenhang von Hypertext und Information Retrieval und die Einsatzm÷glichkeiten von Hypertext in Lernumgebungen gelegt. In theoretischer Hinsicht wird untersucht, ob sich Hypertextbenutzer mit Vorteil gegen?ber anderen Medien die Information erarbeiten k÷nnen, die sie aktuell in kritischen Situationen ben÷tigen, ob und wodurch also gegen?ber traditionellen linearen Formen ein ~informationeller Mehrwert~ erzielt wird. Au~erdem wird die M÷glichkeit diskutiert, mit Hilfe von Textanalyseverfahren und Techniken der Wissensrepr"sentation Hypertexte aus Texten automatisch aufzubauen. Das Buch enth"lt eine umfassende Bibliographie und im Anhang ein Glossar und eine strukturierte Beschreibung der wichtigsten gegenw"rtig erh"ltlichen oder in Entwicklung befindlichen Hypertextsysteme.
    Classification
    ST 351 H97 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Textverarbeitung, Desktop Publishing / Einzelne Programme (A-Z) / Programme H / Hypertext
    RVK
    ST 351 H97 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Textverarbeitung, Desktop Publishing / Einzelne Programme (A-Z) / Programme H / Hypertext
  7. ¬Die Macht der Suchmaschinen (2007) 0.05
    0.046753652 = product of:
      0.093507305 = sum of:
        0.04936487 = weight(_text_:von in 1813) [ClassicSimilarity], result of:
          0.04936487 = score(doc=1813,freq=38.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3854611 = fieldWeight in 1813, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1813)
        0.04414244 = product of:
          0.06621366 = sum of:
            0.0021153404 = weight(_text_:a in 1813) [ClassicSimilarity], result of:
              0.0021153404 = score(doc=1813,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.03821847 = fieldWeight in 1813, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1813)
            0.06409832 = weight(_text_:z in 1813) [ClassicSimilarity], result of:
              0.06409832 = score(doc=1813,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.25018656 = fieldWeight in 1813, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1813)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Suchmaschinen sind der wichtigste Zugangsweg zum Auffinden neuer Netzinhalte. Insgesamt verwendeten nach einer repräsentativen Studie im dritten Quartal 2005 fast 85 Prozent der deutschen Internetnutzer Suchmaschinen. Diese sind inzwischen auch ein Big Business: Gemessen am Börsenwert ist die Suchmaschine Google mit einem Gesamtwert von 80 Mrd. Dollar das wertvollste Medienunternehmen der Welt. Der Konzerngewinn stieg von 2004 auf 2005 um 367 Prozent auf 1,5 Mrd. Dollar. Als Gatekeeper im Internet stellen die Suchmaschinen eine zentrale Herausforderung für Wissenschaft und Forschung dar - letztlich geht es um die Frage der "digitalen Informationsmacht". Mit diesem Band liegt erstmals eine Publikation vor, die die Rolle von Suchmaschinen in der Informationsgesellschaft in den wichtigsten Dimensionen aus verschiedenen Perspektiven wissenschaftlich beleuchtet und dabei hilft, die künftige Suchmaschinenforschung zu systematisieren.
    Classification
    Z 731
    Content
    Der Band geht auf die internationale Tagung Die wachsende Macht von Suchmaschinen im Internet: Auswirkungen auf User, Medienpolitik und Medienbusiness bestehend aus einem interdisziplinären wissenschaftlichen Workshop am 26. Juni 2006 und einer Publikumskonferenz am 27. Juni 2006 in Berlin zurück, die vom Lehrstuhl für Journalistik II der Universität Leitung und dem Lehrstuhl für Internationalen Journalismus der UniversitSt Dortmund in Kooperation mit der Friedrich-Ebert-Stiftung, Bereich Medien und Politik, veranstaltet worden ist. In drei Kapiteln werden die zentralen Forschungsfelder aufgegriffen: Das erste Kapitel behandelt die wichtigsten Aspekte im Bereich der Suchmaschinenregulierung und -ökonomie. Es werden Herausforderungen transparent gemacht, die sich gegenwärtig in der Entwicklung befindlichen Regulierungsstrukturen analysiert und Lösungswege erarbeitet. Das zweite Kapitel beschäftigt sich, zum ersten Mal in Form einer Publikation, mit dem Verhältnis von Suchmaschinen und Journalismus. Dabei ist die Frage, inwieweit Suchmaschinen einerseits journalistische Funktionen übernehmen und andererseits Journalisten als Rechercheinstrument dienen und wie sich hierdurch das Gefüge des bisherigen Massenkommunikationssystems verändert, von entscheidender Bedeutung.
    Im dritten Kapitel werden die Qualität von Suchmaschinen und das Nutzerverhalten näher beleuchtet. Erkenntnisse über die Güte von Suchmaschinen sind von großer Relevanz, um deren Rolle bei der Informationsvermittlung in einer Gesellschaft angemessen beurteilen zu können. Der Band liefert hier neue Ansätze und Vorschläge, da die Frage nach der Qualität von Suchmaschinen noch nicht ausreichend beantwortet worden ist. Zum anderen ist die Analyse des Nutzerverhaltens grundlegend, um Schlussfolgerungen für die Medienkompetenz als zentrale Schlüsselqualifikation im Informationszeitalter ziehen zu können. Unter den Autoren sind viele der international führende Experten auf dem Gebiet Suchmaschinen, darunter Wissenschaftler der Universitäten Harvard, Yale und Columbia sowie der London School of Economics und der Pariser Sorbonne. Darüber hinaus wurden auch Beiträge von Praktikern, allesamt leitende Redakteure oder Verantwortliche in Medienunternehmen aufgenommen, um deren Erkenntnisse für die Thematik fruchtbar zu machen. Der Band richtet sich neben der Wissenschaft auch an die Praxis, vor allem die Medienaufsicht und -ökonomie sowie an den Journalismus. Er bietet aber auch der allgemein interessierten Öffentlichkeit einen fundierten Einblick in die bisher wenig erforschte Welt der Suchmaschinen.
    MARCEL MACHILL / MARKUS BEILER / MARTIN ZENKER: Suchmaschinenforschung. Überblick und Systematisierung eines interdisziplinären Forschungsfeldes TEIL 1: SUCHMASCHINENREGULIERUNG UND -ÖKONOMIE URS GASSER / JAMES THURMAN: Themen und Herausforderungen der Regulierung von Suchmaschinen NORBERT SCHNEIDER: Die Notwendigkeit der Suchmaschinenregulierung aus Sicht eines Regulierers WOLFGANG SCHULZ / THORSTEN HELD: Der Index auf dem Index? Selbstzensur und Zensur bei Suchmaschinen BORIS ROTENBERG: Towards Personalised Search: EU Data Protection Law and its Implications for Media Pluralism ELIZABETH VAN COUVERING: The Economy of Navigation: Search Engines, Search Optimisation and Search Results THEO RÖHLE: Machtkonzepte in der Suchmaschinenforschung TEIL 2: SUCHMASCHINEN UND JOURNALISMUS VINZENZ WYSS / GUIDO KEEL: Google als Trojanisches Pferd? Konsequenzen der Internet-Recherche von Journalisten für die journalistische Qualität NIC NEWMAN: Search Strategies and Activities of BBC News Interactive JÖRG SADROZINSKI: Suchmaschinen und öffentlich-rechtlicher Onlinejournalismus am Beispiel tagesschau.de HELMUT MARTIN-JUNG: Suchmaschinen und Qualitätsjournalismus PHILIP GRAF DÖNHOFF / CHRISTIAN BARTELS: Online-Recherche bei NETZEITUNG.DE SUSAN KEITH: Searching for News Headlines: Connections between Unresolved Hyperlinking Issues and a New Battle over Copyright Online AXEL BUNDENTHAL: Suchmaschinen als Herausforderung für Archive und Dokumentationsbereiche am Beispiel des ZDF BENJAMIN PETERS: The Search Engine Democracy: Metaphors and Muhammad
    TEIL 3: QUALITÄT VON SUCHMASCHINEN UND NUTZERVERHALTEN] DIRK LEWANDOWSKI: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? BENJAMIN EDELMAN: Assessing and Improving the Safety of Internet Search Engines HENDRIK SPECK / FREDERIC PHILIPP THIELE: Playing the Search Engines or Hacking the Box: Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google NATALIE KINK / THOMAS HESS: Suchmaschinen als Substitut traditioneller Medien? Erste Ergebnisse einer Studie zum Wandel der Informationsbeschaffung durch Suchmaschinen DIVINA FRAU-MEIGS: Minding the Gatekeepers: Search Engines for Young People, and the Regulatory Riddle of Harmful Content an Environmental Cognition Perspective MARCEL MACHILL / MARKUS BEILER / ULRIKE NEUMANN: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. Ein Experiment am Beispiel von Google Scholar
    KAB
    Z 731
  8. ¬Die Technik auf dem Weg zur Seele : Forschungen an der Schnittstelle Gehirn / Computer (1996) 0.05
    0.045698076 = product of:
      0.09139615 = sum of:
        0.033764858 = weight(_text_:von in 4939) [ClassicSimilarity], result of:
          0.033764858 = score(doc=4939,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.26364982 = fieldWeight in 4939, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=4939)
        0.0576313 = product of:
          0.08644695 = sum of:
            0.060432475 = weight(_text_:z in 4939) [ClassicSimilarity], result of:
              0.060432475 = score(doc=4939,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.23587814 = fieldWeight in 4939, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4939)
            0.026014473 = weight(_text_:22 in 4939) [ClassicSimilarity], result of:
              0.026014473 = score(doc=4939,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15476047 = fieldWeight in 4939, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4939)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: PÖPPEL, E.: Radikale Syntopie an der Schnittstelle von Gehirn und Computer; LEM, S.: Unsaubere Schnittstelle Mensch / Maschine; DENNETT, D.C.: Bewußtsein hat mehr mit Ruhm als mit Fernsehen zu tun; SMITH CHURCHLAND, P.: Vernunft braucht Gefühle; BLAKEMORE, C.: Hirnforscher auf der Suche nach den richtigen Fragen; ROSENFIELD, I.: Kein Erkennen ohne Gedächtnis; VINCENT, J.-D.: Das Gehirn: ein Computer mit Leidenschaften; MORAVEC, H.: Körper, Roboter und Geist; SCHNEIDER, M.: OST-West-Lesearten der Unsterblichkeit; BHARATI, S.P.: Körper, Geist und Bewußtsein im indischen Veda; SHIMIZU, H.: Die ordnende Kraft des 'Ba' im traditionellen Japan; BAUMAN, Z.: Unsterblichkeit, Biologie und Computer; LINKE, D.B.: Chancen und Risiken der Neurotechnologie; LINDVALL, O.: Transplantation von Hirngewebe: was ist heute und in naher Zukunbft machbar?; FROMHERZ, P.: Funktionelle Kopplungen zwischen Neuronen und Chips; ZIEGLGÄNSBERGER, W.: Wanderungen von Nervenzellen bei der Hirnentwicklung; BIRBAUMER, N.: Selbststeuerung elektrischer Hirnpotentiale bei der Epilepsiebehandlung; PFURTSCHELLER, G.: Steuerung von Cursorbewegungen durch elektrosche Hirnpotentiale; ECKMILLER, R.: Das Retina-Implantat für die Wiedergewinnung des Sehens; RÖSSLER, R. u.a.: Lebensverlängerung durch Eingriff in die biologische Uhr; CHRISTALLER, T.: Kognitive Robotik; STEELS, L.: Homo cyber-sapiens oder Robo hominidus intelligens; Maschinen erwachen zu künstlichem Leben; MALSBURG, C. von: Die Barriere zwischen Gehirn und Computer; RITTER, H.: Mensch-Maschine-Kooperation: Roboter lernen, Gesten zu erkennen; PFEIFFER, F.: Eine sechsbeinige Laufmaschine nach biologischen Prinzipien; CHRISTALLER, T. u. J. HERTZBERG: LAOKOON: lernfähige, autonome, kooperierende Kanalroboter; WERTHEIMER, R.: Das elektrische Auge: ein technisches System als Kopilot des Autofahrers; MAGGIONI, C.: GestikComputer: Humanisierung der Mensch-Maschine-Kommunikation; RÖTZER, F.: Grundlagen einer neurotechnologischen Ethik; METZINGER, T.: Philosophische Stichworte zu einer Ethik der Neurowissenschaften und der Informatik; RÖTZER, F. u.a.: Entwurf für eine Ethik der Neurotechnologie
    Date
    22. 7.2000 18:57:50
  9. Schlosser, H.-D.: Lexikon der Unwörter (2000) 0.05
    0.04510556 = product of:
      0.18042225 = sum of:
        0.18042225 = weight(_text_:lexikon in 2146) [ClassicSimilarity], result of:
          0.18042225 = score(doc=2146,freq=6.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.59969836 = fieldWeight in 2146, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2146)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Lexikon dokumentiert kritikwürdige Wörter und Formulierungen, die bei der exemplarischen Wahl einiger weniger aktueller Jahres-Unwörter seit 1991 nicht zum Zuge kommen konnten. Und es sind auch schon lange vor der Unwort-Aktion immer wieder einzelne Wörter und Wendungen gebraucht worden, die besser nicht ins öffentliche Sprachleben gelangt wären. Der Missbrauch der Sprache mit dem Ziel, Menschen hinters Licht zu führen oder zu verletzen, lässt sich im Rahmen der deutschen Sprachgeschichte weit zurückverfolgen. Der Autor hat sich bei der Auswahl der Stichwörter vorgestellt, welche Wörter oder Formuherungen in früheren Zeiten hätten kritisiert werden müssen, wenn es die Unwort-Aktion schon vor 1991 gegeben hätte. Manches davon ist inzwischen historisch geworden und hat seine Aktualität verloren. Aber es hat zu seiner Zeit die öffentliche Kommunikation, das Denken und Handeln gleichfalls belastet und nicht selten sogar extrem negativ beeinflusst. Die hier vorgestellten Unwörter entstammen weit überwiegend dem 20. Jahrhundert. Das könnte den Eindruck erwecken, es ginge mit der Sprache immer schneller bergab. Diesem Vorurteil sollte man als Sprachkritiker auf keinen Fall erliegen. Denn immer noch können die meisten Äußerungen als sachlich angemessen, ehrlich und menschenfreundlich bewertet werden. Dass die Menschen in früheren Jahrhunderten sprachlich keineswegs rücksichtsvoller miteinander umgegangen sind, dass sogar manches, was man für aktuell halten möchte, schon sehr viel älteren Ursprungs ist, können einzelne Belege bezeugen, die teilweise sehr weit vor 1900 datiert werden müssen.
    Imprint
    Gütersloh : Bertelsmann-Lexikon-Verlag
  10. Wissen, D.: Zukunft der Bibliographie - Bibliographie der Zukunft : eine Expertenbefragung mittels Delphi-Technik in Archiven und Bibliotheken in Deutschland, Österreich und der Schweiz ; vom Schriftenverzeichnis zum Informationsraum ; die Entwicklung bibliographischer Informationen, hin zu mediographischen Daten für die germanistische Applikation bei Literaturportalen wie beispielsweise einer Mediographie bzw. Wikigraphie (2008) 0.04
    0.043697774 = product of:
      0.08739555 = sum of:
        0.05208341 = weight(_text_:lexikon in 2487) [ClassicSimilarity], result of:
          0.05208341 = score(doc=2487,freq=2.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.173118 = fieldWeight in 2487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2487)
        0.035312135 = weight(_text_:von in 2487) [ClassicSimilarity], result of:
          0.035312135 = score(doc=2487,freq=28.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2757316 = fieldWeight in 2487, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2487)
      0.5 = coord(2/4)
    
    Abstract
    Für die hier vorliegende Studie wurden 40 Führungspersönlichkeiten bedeutender Archive und Bibliotheken nach der zukünftigen Entwicklung der Bibliographie befragt. Die Erhebung zu dieser Studie wurde innerhalb eines Jahres zwischen 2005 und 2006 in vier Runden nach der Delphi- Technik in Deutschland, Österreich und der Schweiz durchgeführt. Durch ein Interview, das Fragen aus betrieblichen, gesellschaftlichen und wissenschaftlichen Bereichen beinhaltete, wurden Prognosen ermittelt, die in drei weiteren Befragungsrunden nochmals mittels dargestellter Szenarien hinterfragt wurden. Erkundet wurde durch diese fokussierende Untersuchung die Entwicklung der bibliographischen Information -- vom Schriftenverzeichnis zum Informationsraum -- für die germanistische Applikation. Ziel dieser Studie ist es, anhand der Prognosen von Experten zu klären, ob Bibliographien in Zeiten "Digitaler", "Elektronischer" bzw. "Virtueller Bibliotheken" auch zukünftig einem zeitgemäßen Anspruch in Hinblick auf Informationsbedarf, -nutzen und -wert genügen können und wie sich deren Zukunft gestalten wird. In Form eines Realisierungskonzepts wird im Anschluss an die Erhebungsanalyse beschrieben, wie sich den Experten zufolge bibliographische Daten in einem Prozess, hin zu mediographischen Informationen, befinden. Verdeutlicht wird die Zukunft der Bibliographien in Form von Literaturportalen bzw. Informationsräumen, die möglicherweise die Gestalt einer Mediographie oder Wikigraphie annehmen werden. Wie diese Verzeichnisse konzipiert sein sollten, wird auf Grund der Befragungsergebnisse analysiert und interpretiert und als Szenarienvarianten durch ein theoretisches Modell beschrieben.
    Classification
    AN 96100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Herstellung von Bibliographien und Informationsdiensten
    Footnote
    Zugl.: Wien, Univ., Diss., 2007. - Rez. in: ZfBB 55(2008) H.6, S.360-361 (L. Heller): "Was grenzt eine Bibliographie von einem Bibliothekskatalog oder auch einem Literaturverzeichnis ab? Welche Gegenstände, Personen(gruppen) und Räume sind lohnende Objekte einer jeweils eigenständigen und möglichst umfassenden bibliographischen Erschließung? Wie kann eine solche Erschließung für die Literatursuchenden wirklich nützlich sein? - Fragen wie diese zeigen, wie groß und wie schwer zu fassen das Konzept »Bibliographie« bisher schon immerwar. Wie viel komplexer und anspruchsvoller das Bereitstellen einer zeitgemäßen, nützlichen bibliographischen Dienstleistung im Internetzeitalter ist, hat sich der Bibliothekar Dirk Wissen in seinem Buch »Zukunft der Bibliographie - Bibliographie der Zukunft« gefragt. Es dürfte sich um eine der ersten deutschsprachigen Dissertationsschriften handeln, die explizit den Themenbereich »Bibliothek 2.0« und »Archiv 2.0« behandeln. Diese beiden Stichworte spielen auf das »Web 2.0« an, einen Begriff, mit dem der Computer-Buchverleger Tim O'Reilly 2005 eine grobe begriffliche Zusammenfassung neuerer, partizipativer Entwicklungen im Internet, wie beispielsweise das freie Online-Lexikon Wikipedia, prägte. Wissen versucht, anhand von Einschätzungen und Erwartungen der Leiter einiger bedeutender Archive, Bibliotheken und Informationseinrichtungen im deutschen Sprachraum herauszufinden, wie bibliographische Dienstleistungen der nahen Zukunft aussehen könnten. Kommerzielle Unternehmen sind dabei nur mit einer Institution vertreten, dem ekz, während traditionelle Universitätsbibliotheken recht zahlreich repräsentiert sind. Akkurat und nachvollziehbar führte der Autor über mehrere Runden Interviews mit diesem Personenkreis durch, legt den Befragten Thesen vor und lässt sie diese bewerten.
    In dieser so genannten Delphi-Studie kristallisiert sich der Wunsch nach einem Web-Portal heraus, das Eigenschaften heutiger bibliographischer Datenbankangebote mit Eigenschaften des Web 2.0 ergänzt. Bis ungefähr 2015 soll den Befragungs-Ergebnissen zufolge ein von mehreren Einrichtungen als »Wikigraphie« oder »Mediographie« kooperativ betriebenes Literaturportal entstehen können. Die Betonung liegt dabei auf »können« - Wissen legt wert darauf, weder die Befragten über alternative Szenarien entscheiden zu lassen, noch eine Prognose zu treffen. Vielmehr habe sein Szenario einen >orientierendem Charakter. Das Szenario einer Mediographie stehe dabei für die Integration von bibliographischer Information und dem Vollzugriff auf die (textuellen und nicht-textuellen) Medieninhalte. Wikigraphie meint eine »Schicht« der Benutzerinteraktion eines Portals, das eine unter ökonomischen und qualitativen Aspekten wünschenswerte Anreicherung qualitätsgesicherter Stammdaten< durch Benutzer erlaubt. Nun weckt der Begriff »Portal« unweigerlich Assoziationen an Vorstellungen zentralisierter Informationsverzeichnisse im Web, wie sie in den 90er-Jahren verbreitet waren. Dem Autor der Studie kann man das nur bedingt zum Vorwurf machen. Er erfüllt lediglich die selbstgestellte Aufgabe, aus den Aussagen der deutschen Bibliotheks-Entscheiderderen Vorstellung von einer »Zukunft der Bibliographie« zu destillieren. Es überrascht kaum, dass sich diese Vorstellung vom in der Fachöffentlichkeit vorherrschenden Bild der Bibliothek 2.0 unterscheidet - denn dort wird die Bearbeitung dieses Themas gern einer ganz anderen Generation überlassen, sozusagen den »jungen Wilden« des Bibliothekswesens.
    Bedauerliche Auslassungen Dennoch ist es bedauerlich, dass in den 2005 und 2006 stattgefundenen Befragungs-Runden gleich mehrere Ansätze außen vor geblieben sind, an denen sich modellhaft die Entwicklung der Bibliographie unter den Bedingungen des Web 2.0 hätte beobachten lassen. Der 2004 von Richard Cameron gegründete bibliographische Social-Bookmarking-Dienst CiteULike und seine zahlreichen Nacheiferer werden nicht erwähnt. Auch das ebenfalls 2004 entstandene WikisourceProjekt, bei dem digitalisierte Dokumente unter einer freien Lizenz veröffentlicht und von Freiwilligen beschrieben und textlich erfasst werden, findet keine Erwähnung. Und auch LibraryThing, ein 2005 entstandener Webdienst, der seine Benutzer mit großem Erfolg zur Katalogisierung, »Anreicherung« und Vernetzung ihrer privaten Buchsammlungen einlädt, fehlt leider, einschließlich aller Konkurrenzunternehmen.
    Das ist deshalb bedauerlich, weil die für das Internet charakteristische Dezentralisierung der bibliographischen Informationsströme gerade durch Dienste wie CiteULike einen erheblichen Popularitäts- aber auch Forschungs- und Entwicklungsschub erfahren hat. Man betrachte nur die Flut der fachlichen Veröffentlichungen über bibliographische Social-Bookmarking-Dienste in den fachlichen Repositories DUST und E-LIS sowie in den anglophonen Fachzeitschriften seit etwa 2004. Einige mit diesen Diensten zusammenhängende Themen werden von Wissen durchaus berührt. Er findet zum Beispiel mit den Experten heraus, dass das Semantic Web Bestandteil des medio- bzw. wikigraphischen Portals sein müsse (S. 203). Aber die bloße Nennung des Semantic Web lässt nichts von den Spannungen ahnen, die es für das soziale Verhältnis von Zentrum und Peripherie der bibliographischen Information birgt, wenn die partizipativen Strukturen des Web 2.0 und das Semantic Web zusammenkommen. Web 2.0-typische Webservices kombiniert mit den Normdateien der Deutschen Nationalbibliothek würden etwa bedeuten, dass jeder, überall, auch in einem Dienst wie CiteULike, in Wikisource oder in einem eigenen Weblog, Verknüpfungen zu einem Schlagwort erzeugen kann. Ohne also abzuwarten, ob ihm im Jahr 2015 in einem zentralen Portal der traditionellen bibliographischen Diensteanbieter eine >Mitmach-Schicht< zugewiesen wird, in der er dann ein wenig miterschließen darf. Der Autor gibt in seinem Resümee zu erkennen, dass er durchaus um die Eigendynamik seines Gegenstands und die Eigenwilligkeit der Benutzer weiß (S.326f.). Ob das auch für die interviewten Sprecher dieses Delphi-Orakels der bibliographischen Zukunft gilt, muss nach der Lektüre des Buchs allerdings dahingestellt bleiben."
    RVK
    AN 96100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Herstellung von Bibliographien und Informationsdiensten
  11. Wagner, T.: Evaluation von Point-of-Information (POI)-Systemen : die Akzeptanz von Informationskiosken in Abhängigkeit von Informationsrelevanz und Informationsaufbereitung (1997) 0.04
    0.04353205 = product of:
      0.0870641 = sum of:
        0.06538537 = weight(_text_:von in 1061) [ClassicSimilarity], result of:
          0.06538537 = score(doc=1061,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.51055574 = fieldWeight in 1061, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=1061)
        0.021678729 = product of:
          0.065036185 = sum of:
            0.065036185 = weight(_text_:22 in 1061) [ClassicSimilarity], result of:
              0.065036185 = score(doc=1061,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.38690117 = fieldWeight in 1061, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1061)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Date
    22. 2.1997 19:40:31
  12. Olson, N.B.: Cataloging computer files (1992) 0.04
    0.042904235 = product of:
      0.08580847 = sum of:
        0.03775026 = weight(_text_:von in 7631) [ClassicSimilarity], result of:
          0.03775026 = score(doc=7631,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 7631, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=7631)
        0.04805821 = product of:
          0.07208732 = sum of:
            0.007051134 = weight(_text_:a in 7631) [ClassicSimilarity], result of:
              0.007051134 = score(doc=7631,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 7631, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=7631)
            0.065036185 = weight(_text_:22 in 7631) [ClassicSimilarity], result of:
              0.065036185 = score(doc=7631,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.38690117 = fieldWeight in 7631, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=7631)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Content
    Gleichzeitig Revision der 3. Aufl. von 'A manual of AACR2 examples for microcomputer software and videogames'; basiert auf AACR2R
    Footnote
    Rez. in: International cataloguing and bibliographic control 22(1993) no.4, S.72 (R. Templeton); Technical services quarterly 11(1994) no.3, S.91-92 (P. Holzenberg)
  13. Lackes, R.; Tillmanns, C.: Data Mining für die Unternehmenspraxis : Entscheidungshilfen und Fallstudien mit führenden Softwarelösungen (2006) 0.04
    0.04231666 = product of:
      0.08463332 = sum of:
        0.07162608 = weight(_text_:von in 1383) [ClassicSimilarity], result of:
          0.07162608 = score(doc=1383,freq=20.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.55928576 = fieldWeight in 1383, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=1383)
        0.013007237 = product of:
          0.039021708 = sum of:
            0.039021708 = weight(_text_:22 in 1383) [ClassicSimilarity], result of:
              0.039021708 = score(doc=1383,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.23214069 = fieldWeight in 1383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1383)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Das Buch richtet sich an Praktiker in Unternehmen, die sich mit der Analyse von großen Datenbeständen beschäftigen. Nach einem kurzen Theorieteil werden vier Fallstudien aus dem Customer Relationship Management eines Versandhändlers bearbeitet. Dabei wurden acht führende Softwarelösungen verwendet: der Intelligent Miner von IBM, der Enterprise Miner von SAS, Clementine von SPSS, Knowledge Studio von Angoss, der Delta Miner von Bissantz, der Business Miner von Business Object und die Data Engine von MIT. Im Rahmen der Fallstudien werden die Stärken und Schwächen der einzelnen Lösungen deutlich, und die methodisch-korrekte Vorgehensweise beim Data Mining wird aufgezeigt. Beides liefert wertvolle Entscheidungshilfen für die Auswahl von Standardsoftware zum Data Mining und für die praktische Datenanalyse.
    Content
    Modelle, Methoden und Werkzeuge: Ziele und Aufbau der Untersuchung.- Grundlagen.- Planung und Entscheidung mit Data-Mining-Unterstützung.- Methoden.- Funktionalität und Handling der Softwarelösungen. Fallstudien: Ausgangssituation und Datenbestand im Versandhandel.- Kundensegmentierung.- Erklärung regionaler Marketingerfolge zur Neukundengewinnung.Prognose des Customer Lifetime Values.- Selektion von Kunden für eine Direktmarketingaktion.- Welche Softwarelösung für welche Entscheidung?- Fazit und Marktentwicklungen.
    Date
    22. 3.2008 14:46:06
  14. Nissen, K.; Reuter, M.: ¬Die neuen Leiden der jungen Wörter : Das aktuelle Wörterbuch zur Rächtschraiprehvorm (1999) 0.04
    0.04166673 = product of:
      0.16666692 = sum of:
        0.16666692 = weight(_text_:lexikon in 2859) [ClassicSimilarity], result of:
          0.16666692 = score(doc=2859,freq=2.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.5539776 = fieldWeight in 2859, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.0625 = fieldNorm(doc=2859)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Lexikon der irre populären Rechtschreibreform bekommen alte Wörter einen völlig neuen Unsinn. Dasgeschieht mittels Buchstaben und Satzzeichen, die hier erstmals alle schwarz hervorgehoben sind - eine echt leserfreundliche Revolution! 1679 Stichwörter werden verrückt erklärt, mit jeder Menge Querverweisen und witzigen Illustrationen dazu. Und das alles aus nur 26 Buchstaben, man glaubt es kaum!
  15. Dennett, D.C.: Philosophie des menschlichen Bewußtseins (1994) 0.04
    0.041045167 = product of:
      0.08209033 = sum of:
        0.04530031 = weight(_text_:von in 3166) [ClassicSimilarity], result of:
          0.04530031 = score(doc=3166,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.35372335 = fieldWeight in 3166, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.09375 = fieldNorm(doc=3166)
        0.036790024 = product of:
          0.11037007 = sum of:
            0.11037007 = weight(_text_:22 in 3166) [ClassicSimilarity], result of:
              0.11037007 = score(doc=3166,freq=4.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.6565931 = fieldWeight in 3166, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3166)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Date
    22. 7.2000 19:22:32
    Source
    Aus dem Amerik. von F. M. Wuketits
  16. Köppen, O.M.H.: ¬Das Grundrecht der Informationsfreiheit unter besonderer Berücksichtigung der neuen Medien (2004) 0.04
    0.040963806 = product of:
      0.08192761 = sum of:
        0.05208341 = weight(_text_:lexikon in 4216) [ClassicSimilarity], result of:
          0.05208341 = score(doc=4216,freq=2.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.173118 = fieldWeight in 4216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4216)
        0.029844202 = weight(_text_:von in 4216) [ClassicSimilarity], result of:
          0.029844202 = score(doc=4216,freq=20.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.23303574 = fieldWeight in 4216, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4216)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: ZfBB 52(2005) H.5, S.288-289 (E.W. Steinhauer): "Im bibliothekarischen Selbstverständnis nimmt das Grundrecht der Informationsfreiheit einen wichtigen Platz ein. Wollen die Unterhaltsträger den freien Zugang zu den in der Bibliothek verfügbaren Informationen durch Gebühren und sonstige Beschränkungen reglementieren, dominiert das Grundrecht der Informationsfreiheit die bibliothekspolitische Diskussion. Das ist Grund genug, sich als Bibliothekar einmal vertieft mit der verfassungsrechtlichen Literatur zur Informationsfreiheit zu beschäftigen. Man kann viele Kommentare und Handbücher durcharbeiten. Oder man greift zu der Würzburger Dissertation von Oliver Köppen, in der alle wesentlichen Aspekte des Grundrechts der Informationsfreiheit vorgestellt werden. Einen besonderen Schwerpunkt bilden die »Neuen Medien«, vor allem das Internet. Einleitend informiert Köppen über das derzeitige Medienspektrum und steckt den inhaltlichen Rahmen seiner Arbeit ab. Köppen hat vor allem die Massenmedien im Blick. Bücher als Informationsquellen sucht man vergeblich, wenngleich das Wort »Bibliothek« auf S.236 immerhin Erwähnung findet. Zwar ist es richtig, dass in historischer Perspektive das Grundrecht der Informationsfreiheit ein »Massenmedienfreiheitsrecht« ist, gleichwohl sollte man das Buch als wichtigen nachhaltigen Informationsträger nicht außer Acht lassen: Auch Bücher sind Informationsquellen im Sinne der Verfassung. Nach der Einleitung werden Geschichte und Kontext der grundrechtlichen Informationsfreiheit besprochen. Anschließend grenzt Köppen das Grundrecht der Informationsfreiheit gegenüber anderen Grundrechten ab. Leider fehlt die Wissen-schaftsfreiheit. in den folgenden Kapiteln stellt Köppen das Grundrecht der Informationsfreiheit umfassend dar. Er folgt dabei dem allen Juristen wohlbekannten Aufbau der Grundrechtsprüfung, behandelt also den Schutzbereich, die Eingriffe in den Schutzbereich, die Schranken des Grundrechts und die »SchrankenSchranken«, also die Begrenzungen der durch die Grundrechtsschranken eröffneten Eingriffsmöglichkeiten. An dieser Stelle tut der Nicht-Jurist gut daran, sich die Terminologie und den Aufbau einer Grundrechtsprüfung in einem einschlägigen Lehrbuch kurz erläutern zu lassen. Köppens Arbeit schließt mit Ausführungen zu den so genannten objektiv-rechtlichen Komponenten der Informationsfreiheit. Dazu gehört vor allem die spannende Frage nach der Pflicht des Staates, den Zugang zu Informationsquellen herzustellen bzw. zu gewährleisten.
    Für Bibliothekare verdienen drei Aspekte der vorliegenden Arbeit besondere Aufmerksamkeit, nämlich die Frage, ob Informationsfreiheit auch Informationsgebührenfreiheit bedeutet, dann das Problem des Jugendmedienschutzes und schließlich der Umfang von Leistungs- und Bereitstellungspflichten des Staates im Bereich der Informationsfreiheit. Die Frage nach Benutzungsgebühren im Bibliotheksbereich ist heikel. Sind doch Bibliotheken Kultureinrichtungen mit großer Reichweite, die als öffentliche Bibliotheken insbesondere Kinder und Jugendliche ansprechen wollen und als wissenschaftliche Einrichtungen der politisch gewünschten beruflichen Weiterbildung und der grundrechtlich geschützten Ausübung der Wissenschaftsfreiheit dienen. Benutzungsgebühren sind vor diesem Hintergrund problematisch. Sind sie auch verfassungsrechtlich unzulässig? Köppen diskutiert diese Frage am Beispiel der Rundfunkgebühren (S.152-154). Im Ergebnis stellt er fest, dass Gebühren erst dann eine verfassungsrechtlich erhebliche Beeinträchtigung der Informationsfreiheit darstellen, wenn ihre Höhe geeignet ist, Informationssuchende von Informationsquellen fernzuhalten. Überträgt man diese Erwägungen auf die Bibliothek, so gilt: Benutzungsgebühren sind in einem moderaten Umfang zulässig. Da Köppen auf Bibliotheken in diesem Zusammenhang nicht eingeht, bleiben interessante Fragen unerörtert, die sich aus einem Vergleich von Rundfunk-und Bibliotheksgebühren ergeben: So wird der Benutzer vieler Bibliotheken mit kumulierten Gebühren konfrontiert, während der Rundfunkteilnehmer nur eine Gebühr zu entrichten hat. Von daher müsste eine angemessene Bibliotheksgebühr unterhalb der Rundfunkgebühr liegen. Ergiebig sind die Ausführungen zum Jugendmedienschutz (S.170-187). In konzentrierter Form bietet Köppen eine Einführung in die gesetzlichen Vorschriften. Leiderfehlen bei den Ausführungen zum Jugendmedienschutz-Staatsvertrag Hinweise auf weiterführende Literatur. Obwohl das Vorwort der Arbeit von April 2004 datiert, ist dieser Teil der Dissertation offenbar vor dem 1. April 2003 geschrieben und nicht aktualisiert worden, vgl. Fn. 698.
    Grundrechte schützen vor Eingriffen des Staates in die Freiheit seiner Bürger. Problematisch ist aber, ob sie auch einen Anspruch auf konkrete Leistungen gewähren. Schon mit Blick auf die begrenzten haushaltsrechtlichen Möglichkeiten wird man das verneinen müssen. Gleichwohl geben Grundrechte einen Anspruch auf Teilhabe, wenn der Staat bestimmte Leistungen bereitstellt. Vor diesem Hintergrund erörtert Köppen den Anspruch des Bürgers auf »monopolisierte staatliche Information«. Hierzu zählt er ausdrücklich auch die Bestände der in staatlicher Trägerschaft befindlichen Bibliotheken (S.236). Da diese in der Regel dem Gemeingebrauch gewidmet sind, dürfte es hier kaum Probleme geben. Für Behördenbibliotheken mit Spezialbeständen wird man sich Köppens Ansicht anschließen können, dass potenzielle Empfänger einer in staatlicher Hand monopolisierten Information einen Anspruch auf Herstellung von Allgemeinzugänglichkeit haben, wenn sie ein berechtigtes Interesse an den Informationen nachweisen (S.236). Es wurde schon angemerkt: Bibliotheken spielen in Köppens Arbeit keine Rolle. Auch die einschlägige bibliotheksrechtliche Literatur, an der kein Mangel besteht, wurde nicht verarbeitet. Dem Autor wird man hier kaum einen Vorwurf machen können, bewegt er sich in seiner Darstellung doch nur in den vom verfassungsrechtlichen Schrifttum vorgezeichneten Bahnen. Auch dort ist von Bibliotheken kaum die Rede. Wenn man die Register der einschlägigen Kommentare und Handbücher konsultiert, sucht man das Stichwort »Bibliothek« vergeblich. Umgekehrt und merkwürdigerweise fehlt auch im sonst so ausführlichen »Lexikon des gesamten Buchwesens« ein Lemma »Informationsfreiheit«. Hier fragt man sich: Ist denn der Themenkomplex »Bibliothek und Informationsfreiheit« wirklich so selbstverständlich, dass eine literarische Abhandlung dazu überflüssig erscheint? Wenn man die Arbeit von Köppen aufmerksam liest, dann ist das zu verneinen. Gerade Fragen der Gebühren für Bibliotheksbenutzung und die in manchen Hochschulen zu beobachtende Tendenz, externe Nutzer in Hochschulbibliotheken als »einrichtungsfremde« Leser kritisch zu sehen, sollten für Bibliothekare Anlass genug sein, sich intensiver dem Grundrecht der Informationsfreiheit zuzuwenden und die Einrichtung und den Betrieb von Bibliotheken als wichtige Bedingung der Grundrechtsverwirklichung zu begreifen. Hier bietet Köppens Arbeit solide Hintergrundinformationen. Wer sie durchgearbeitet hat, kann mit Unterhaltsträgern und Kritikern einer weitherzigen Bibliothekspolitik sachlich und kompetent diskutieren."
  17. Calvin, W.H.: ¬Der Sprache des Gehirns : Wie in unserem Bewußtsein Gedanken entstehen (2002) 0.04
    0.04057806 = product of:
      0.08115612 = sum of:
        0.042709544 = weight(_text_:von in 1161) [ClassicSimilarity], result of:
          0.042709544 = score(doc=1161,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3334936 = fieldWeight in 1161, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=1161)
        0.03844657 = product of:
          0.057669856 = sum of:
            0.005640907 = weight(_text_:a in 1161) [ClassicSimilarity], result of:
              0.005640907 = score(doc=1161,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 1161, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1161)
            0.052028947 = weight(_text_:22 in 1161) [ClassicSimilarity], result of:
              0.052028947 = score(doc=1161,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 1161, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1161)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Wie ordnen sich in unserem Gehirn Begriffe, Vorstellungen und Erinnerungen zu zusammenhängenden Gedanken? William Calvin erklärt, wie diese Elementarsprache unseres Denkens funktioniert. Ihre Bausteine lassen sich nicht beliebig sortieren. Sie werden so lange arrangiert und sortiert, bis ein brauchbarer Gedanke oder Satz zustande kommt. Calvin zeigt, wie dieser Prozeß der Selektion und Kombination aus dem Hintergrund von einer »Darwinmaschine« gesteuert wird.
    Date
    11.11.2002 14:30:22
    Footnote
    Titel der Originalausgabe: The cerebral code: thinking a thought in the mosaics of the mind. Deutsche Ausgabe 2000 bei Hanser
    Issue
    Aus dem Englischen von Hartmut Schickert.
  18. Calvin, W.H.; Ojemann, G.A.: Einsicht ins Gehirn : wie Denken und Sprache entsteht (1995) 0.04
    0.04057806 = product of:
      0.08115612 = sum of:
        0.042709544 = weight(_text_:von in 60) [ClassicSimilarity], result of:
          0.042709544 = score(doc=60,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3334936 = fieldWeight in 60, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=60)
        0.03844657 = product of:
          0.057669856 = sum of:
            0.005640907 = weight(_text_:a in 60) [ClassicSimilarity], result of:
              0.005640907 = score(doc=60,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 60, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=60)
            0.052028947 = weight(_text_:22 in 60) [ClassicSimilarity], result of:
              0.052028947 = score(doc=60,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 60, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=60)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Erforschung des menschlichen Gehirns, der neuronalen Grundlagen von visueller Wahrnehmung, Gedächtnis und Sprachberherrschung, zählt zu den faszinierendsten wissenschaftlichen Unternehmen der Gegenwart. William H. Calvin und George A. Ojemann nehmen die Schilderung einer Gehirnoperation zum Leitfaden, um die neuesten Forschungsergebnisse zu erläutern
    Date
    22. 7.2000 18:41:04
    Issue
    Aus dem Amerikan. von H. Schickert.
  19. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.04
    0.04026025 = product of:
      0.0805205 = sum of:
        0.043248355 = weight(_text_:von in 38) [ClassicSimilarity], result of:
          0.043248355 = score(doc=38,freq=42.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.33770084 = fieldWeight in 38, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
        0.037272148 = product of:
          0.055908218 = sum of:
            0.0024929526 = weight(_text_:a in 38) [ClassicSimilarity], result of:
              0.0024929526 = score(doc=38,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.045040898 = fieldWeight in 38, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=38)
            0.053415265 = weight(_text_:z in 38) [ClassicSimilarity], result of:
              0.053415265 = score(doc=38,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.20848879 = fieldWeight in 38, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=38)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären.
    Zum Inhalt Auf einen kurzen einleitenden Abschnitt folgt eine Einführung in die grundlegende Methodik des automatischen Klassifizierens. Oberhauser erklärt hier Begriffe wie Einfach- und Mehrfachklassifizierung, Klassen- und Dokumentzentrierung, und geht danach auf die hauptsächlichen Anwendungen der automatischen Klassifikation von Textdokumenten, maschinelle Lernverfahren und Techniken der Dimensionsreduktion bei der Indexierung ein. Zwei weitere Unterkapitel sind der Erstellung von Klassifikatoren und den Methoden für deren Auswertung gewidmet. Das Kapitel wird abgerundet von einer kurzen Auflistung einiger Softwareprodukte für automatisches Klassifizieren, die sowohl kommerzielle Software, als auch Projekte aus dem Open-Source-Bereich umfasst. Der Hauptteil des Buches ist den großen Projekten zur automatischen Erschließung von Webdokumenten gewidmet, die von OCLC (Scorpion) sowie an den Universitäten Lund (Nordic WAIS/WWW, DESIRE II), Wolverhampton (WWLib-TOS, WWLib-TNG, Old ACE, ACE) und Oldenburg (GERHARD, GERHARD II) durchgeführt worden sind. Der Autor beschreibt hier sehr detailliert - wobei der Detailliertheitsgrad unterschiedlich ist, je nachdem, was aus der Projektdokumentation geschlossen werden kann - die jeweilige Zielsetzung des Projektes, die verwendete Klassifikation, die methodische Vorgehensweise sowie die Evaluierungsmethoden und -ergebnisse. Sofern Querverweise zu anderen Projekten bestehen, werden auch diese besprochen. Der Verfasser geht hier sehr genau auf wichtige Aspekte wie Vokabularbildung, Textaufbereitung und Gewichtung ein, so dass der Leser eine gute Vorstellung von den Ansätzen und der möglichen Weiterentwicklung des Projektes bekommt. In einem weiteren Kapitel wird auf einige kleinere Projekte eingegangen, die dem für Bibliotheken besonders interessanten Thema des automatischen Klassifizierens von Büchern sowie den Bereichen Patentliteratur, Mediendokumentation und dem Einsatz bei Informationsdiensten gewidmet sind. Die Darstellung wird ergänzt von einem Literaturverzeichnis mit über 250 Titeln zu den konkreten Projekten sowie einem Abkürzungs- und einem Abbildungsverzeichnis. In der abschließenden Diskussion der beschriebenen Projekte wird einerseits auf die Bedeutung der einzelnen Projekte für den methodischen Fortschritt eingegangen, andererseits aber auch einiges an Kritik geäußert, v. a. bezüglich der mangelnden Auswertung der Projektergebnisse und des Fehlens an brauchbarer Dokumentation. So waren z. B. die Projektseiten des Projekts GERHARD (www.gerhard.de/) auf den Stand von 1998 eingefroren, zurzeit [11.07.06] sind sie überhaupt nicht mehr erreichbar. Mit einigem Erstaunen stellt Oberhauser auch fest, dass - abgesehen von der fast 15 Jahre alten Untersuchung von Larsen - »keine signifikanten Studien oder Anwendungen aus dem Bibliotheksbereich vorliegen« (S. 139). Wie der Autor aber selbst ergänzend ausführt, dürfte dies daran liegen, dass sich bibliografische Metadaten wegen des geringen Textumfangs sehr schlecht für automatische Klassifikation eignen, und dass - wie frühere Ergebnisse gezeigt haben - das übliche TF/IDF-Verfahren nicht für Katalogisate geeignet ist (ibd.).
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  20. Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen : Proceedings der 8. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Regensburg, 9.-11. Oktober 2002 (2004) 0.04
    0.040106468 = product of:
      0.080212936 = sum of:
        0.05884683 = weight(_text_:von in 5864) [ClassicSimilarity], result of:
          0.05884683 = score(doc=5864,freq=54.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.45950013 = fieldWeight in 5864, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
        0.021366108 = product of:
          0.06409832 = sum of:
            0.06409832 = weight(_text_:z in 5864) [ClassicSimilarity], result of:
              0.06409832 = score(doc=5864,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.25018656 = fieldWeight in 5864, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5864)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Mit der Entwicklung von Wissen und weltweiter Kommunikation kommt der Wissensorganisation zunehmend eine Schlüsselrolle zu. Einerseits geht es darum, zu verstehen, was Wissen ist und wie es strukturiert ist, andererseits möchte man die Technik der elektronischen Darstellung und Wiederauffindung des Wissens über den gegenwärtigen Stand hinaus weiterentwickeln. Dabei geht es um vielfältige Anwendungen, z. B. Wissensvertextung, Forschungsunterstützung, Bereitstellung von Wissen in Arbeits- und Entscheidungsprozessen, Weiterbildung, Ordnung, Wissenverknüpfung, Innovationsförderung und anderes. Schwerpunkt der Fachtagung Wissensorganisation 2002 sollte darum unter dem Motto "Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen", in Weiterführung ähnlicher Themen von den beiden vorhergehenden Tagungen, Methoden der Wissensorganisation und den Nutzen ihrer Anwendung im Rahmen von eLearning-Aktivitäten beleuchten sowie andererseits eLearning-Methoden für die Wissensorganisation aufgreifen. Didaktische Modelle wie etwa die Lernontologien stehen dabei ebenso zur Debatte wie Anwendungen von Werkzeugen der Wissensmodellierung oder der begrifflichen Wissensstrukturierung. Ziel soll es sein, den Beitrag der Wissensorganisation zur Entwicklung von Arbeitstechniken und neuer Lernkulturen herauszuarbeiten und gleichzeitig auch didaktische Konzepte für die Wissensorganisation fruchtbar zu machen. Folgende Thematiken können die Ausrichtung dieses Vorhabens beispielhaft skizzieren: - Terminologische Kontrolle in Online-Lernumgebungen - Wie zu organisieren ist (zu Verfahren der Wissensanordnung) - Grundlagen für die Gestaltung von Wissensorganisations- und Lernsystem - Der Benutzer als Lerner - der Lerner als Benutzer - Lehrer als Autoren (der Blick auf den Wissensproduzenten) Die Thematisierung praktischer Arbeitsfelder und Werkzeuge, z. B. die Metadatenorganisation mit XML, werden ergänzt durch vertiefende Reflexion über Wissen. Damit sollen Anregungen zur Konzeption neuer Wissenssysteme zusammengetragen werden. Hier stellen sich Fragen nach der Zerlegbarkeit des Wissens, der Bestimmung der Wissenseinheiten, der Sprachinvarianz des Wissens, der Wissensformalisierung, der punktgenauen Wissensbereitstellung zu spezifischen Problemen usw. Auch zu der Aufgabe, die Gesamtheit und Ganzheit des Wissens zu gewährleisten, werden Antworten gesucht. Der vorliegende Band enthält 20 Beiträge, inklusive drei ausgearbeiteten Versionen von Vorträgen, die zwar auf der 7. Deutschen ISKO Tagung 2001 in Berlin gehalten wurden, aber sich in das hier vorgehaltene Spektrum gut einpassen (von Maik Adomßent zu Lernenden Verwaltungen, von Alfred Gerstenkorn zu Verstehensmanagement und von Christina Rautenstrauch zu Tele-Tutoring). Weiter ist ein Beitrag von Thomas Sporer hinzugefügt worden, der die während der Tagung durchgeführte Video-Dokumentation beleuchtet, sowie ein Beitrag von Peter Ohly zu Semantischen Karten, der im Programm der vorherigen Tagung ausgewiesen war, aber wegen Programmänderungen erst 2002 in Regensburg vorgetragen wurde. Der Vortrag von Norbert Meder zu Metadaten für Lernende Verwaltungen wird 2004 in der Festschrift für Klaus Peter Treumann (Uni Bielefeld) veröffentlicht werden und der Beitrag von Christian Swertz zu Kooperativer Autorenschaft ist zu einem späteren Zeitpunkt zur Veröffentlichung vorgesehen.
    Content
    Enthält die Beiträge: 1. Grundlagen der Wissensorganisation Ingetraut DAHLBERG: Ontische Strukturen und Wissensmuster in der Wissensorganisation S.3 Gerd BAUER: Graphische Darstellung interdisziplinärer Wissensstrukturen S.15 Roland WAGNER_DÖBLER: Kognitive Mobilität und Zipfs "Principle of Least Effort" S.23 Gerhard RAHMSTORF: Übersicht über Methoden der Wissensorganisation S.33 Hannelore SCHOTT, Albert SCHRÖDER: Crosskonkordanzen von Klassifikationen und Thesauri S.41 2. Lehre und Lernen Alfred GERSTENKORN (von Berlin 2001): Wissensmanagement braucht Verstehensmanagement - Konzeption eines Instrumentariums zum Verstehen von Fachtexten für Experten, Neulinge und begrifflich geschulte Fachfremde S.53 Giselher H.J. REDEKER: Learning Objects - Sequenzierung auf Grundlage pädagogischer Metadaten S.67 Alois WACKER, Thorsten KOCH: "Die Arbeitslosen von Marienthal" - Ein Klassiker der Sozialforschung als multimediale Lerneinheit S.83 Christina RAUTENSTRAUCH (von Berlin 2001): Tele-Tutoring - Zur Didaktik des kommunikativen Handelns im virtuellen Lernraum S.93 Gerhard BUDIN: Mehrsprachige Wissensorganisation für den Aufbau von eLearning-Systemen für die Ökologie - Erfahrungsberichte zu den Projekten "Logos Gaias" und "Media Nova Naturae" S.105
    3. Kooperative Arbeitsumgebungen Maik ADOMßENT (von Berlin 2001): Gestaltungspotenziale kollaborativer Wissensnetzwerke in "Lernenden Verwaltungen" am Beispiel des praxisbezogenen Online-Kurses "Projektmanagement" der Universität Lüneburg S.123 Andreas WENDT: Standardisierungen im E-Learning-Bereich zur Unterstützung der automatisierten Komposition von Lernmaterialien S.133 Katja MRUCK, Marion NIEHOFF, Guenter MEY: Forschungsunterstützung in kooperativen Lernumgebungen: Das Beispiel der "Projektwerkstatt Qualitativen Arbeitens" als Offline- und Online-Begleitkonzept S.143 Irmhild ROGULLA, Mirko PREHN: Arbeitsprozessorientierte Weiterbildung: Prozess-Systematik als Basis für Informationsaneignung, Wissenserwerb und Kompetenzentwicklung S.151 4. Wissensmanagement und Informationsdesign Alexander SIGEL: Wissensmanagement in der Praxis: Wann, wie und warum hilft dort Wissensorganisation (nicht)? S.163 Johannes GADNER, Doris OHNESORGE, Tine ADLER, Renate BUBER: Repräsentation und Organisation von Wissen zur Entscheidungsunterstützung im Management S.175 Kerstin ZIMMERMANN: Die Anforderungen an ein wissenschaftliches Informationsportal für die Telekommunikation S.187 Philip ZERWECK: Gestaltung und Erstellung komplexer Informationsangebote im Web S.197 H. Peter OHLY (von Belin 2001): Erstellung und Interpretation von semantischen Karten am Beispiel des Themas "Soziologische Beratung" S.205 Thomas SPORER, Anton KÖSTLBACHER: Digitale Dokumentation von wissenschaftlichen Veranstaltungen S.219

Authors

Languages

Types

  • s 424
  • i 102
  • b 31
  • el 22
  • x 17
  • n 7
  • d 6
  • r 3
  • fi 2
  • h 2
  • u 2
  • More… Less…

Themes

Subjects

Classifications