Search (37 results, page 1 of 2)

  • × language_ss:"d"
  • × type_ss:"el"
  • × year_i:[2000 TO 2010}
  1. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.02
    0.0174303 = product of:
      0.0697212 = sum of:
        0.04174695 = weight(_text_:retrieval in 611) [ClassicSimilarity], result of:
          0.04174695 = score(doc=611,freq=2.0), product of:
            0.124912694 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.041294612 = queryNorm
            0.33420905 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.02797425 = product of:
          0.0559485 = sum of:
            0.0559485 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.0559485 = score(doc=611,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Date
    22. 8.2009 12:54:24
    Theme
    Klassifikationssysteme im Online-Retrieval
  2. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.02
    0.015227336 = product of:
      0.060909346 = sum of:
        0.041327372 = weight(_text_:retrieval in 4324) [ClassicSimilarity], result of:
          0.041327372 = score(doc=4324,freq=4.0), product of:
            0.124912694 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.041294612 = queryNorm
            0.33085006 = fieldWeight in 4324, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.019581974 = product of:
          0.039163947 = sum of:
            0.039163947 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.039163947 = score(doc=4324,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Date
    11. 2.2011 18:22:25
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  3. Henrich, A.: Information Retrieval : Grundlagen, Modelle und Anwendungen (2008) 0.01
    0.01394424 = product of:
      0.05577696 = sum of:
        0.033397563 = weight(_text_:retrieval in 1525) [ClassicSimilarity], result of:
          0.033397563 = score(doc=1525,freq=2.0), product of:
            0.124912694 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.041294612 = queryNorm
            0.26736724 = fieldWeight in 1525, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=1525)
        0.0223794 = product of:
          0.0447588 = sum of:
            0.0447588 = weight(_text_:22 in 1525) [ClassicSimilarity], result of:
              0.0447588 = score(doc=1525,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.30952093 = fieldWeight in 1525, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1525)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Date
    22. 8.2015 21:23:08
  4. Sietmann, R.: Suchmaschine für das akademische Internet (2004) 0.01
    0.00877448 = product of:
      0.03509792 = sum of:
        0.029519552 = weight(_text_:retrieval in 5742) [ClassicSimilarity], result of:
          0.029519552 = score(doc=5742,freq=4.0), product of:
            0.124912694 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.041294612 = queryNorm
            0.23632148 = fieldWeight in 5742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
        0.0055783675 = weight(_text_:of in 5742) [ClassicSimilarity], result of:
          0.0055783675 = score(doc=5742,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.086386204 = fieldWeight in 5742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
      0.25 = coord(2/8)
    
    Abstract
    In Zusammenarbeit mit der norwegischen Suchtechnologie-Firma Fast Search & Transfer hat die Universitätsbibliothek Bielefeld den Prototyp einer Suchmaschine für wissenschaftliche Bibliotheken entwickelt. Dieser demonstriert jetzt mit dem öffentlichen Zugriff auf ausgewählte digitalisierte Sammlungen der Projektteilnehmer die neuen Möglichkeiten des akademischen Retrieval. <http://www.heise.de/RealMedia/ads/adstream_lx.ads/www.heise.de/newsticker/meldungen/wissenschaft/954604605/Middle1/he-test-contentads/zaehler.html/38363566383735383364653062323630?_RM_EMPTY_> Während kommerzielle Suchmaschinen wie Google oder Yahoo sich nicht an akademischen Kriterien orientieren, beschränkt sich die Bielefeld Academic Search Engine (BASE ) auf die von wissenschaftlichen Bibliotheken erschlossenen und aufbereiteten Inhalte. Dazu gehören Hochschulschriften, Preprints, elektronische Zeitschriften und digitale Sammlungen, wie beispielsweise die "Internet Library of Early Journals" des Oxford University Library Service und die "Wissenschaftlichen Rezensionsorgane und Literaturzeitschriften des 18. und 19. Jahrhunderts aus dem deutschen Sprachraum" der UB Bielefeld. Wer etwa bei Google die Stichworte "Immanuel Kant" +Frieden eingibt, kommt zwar schnell an den Originaltext des Aufsatzes "Zum ewigen Frieden" heran, tut sich jedoch schwer, unter den bunt gemischten über 11.000 Treffern gezielt weiter zu recherchieren. Das BASE-Modell dagegen stellt dem Nutzer hierfür vielfältige Navigationshilfen und Metainformationen zur Verfügung. So erleichtert unter anderem die Verfeinerung der Suche auf das Erscheinungsjahr den Zugriff auf die zeitgenössische Diskussion der berühmten Schrift des Königsberger Philosophen. Derzeit ermöglicht der BASE-Prototyp das Retrieval in 15 verschiedenen Archivquellen. Darunter befinden sich die Zeitschriften der Aufklärung, die Elektronischen Dissertationen der Universität Bochum, das elektronische Journal Documenta Mathematica sowie die Mathematischen Volltexte des Springer-Verlags. Der geplante Ausbau soll sich auf eine verteilte Architektur stützen, in der von einzelnen Bibliotheken lokal erstellte Indexe gemeinsam zu einem virtuellen Master-Index beitragen. Dies würde dem Nutzer die nahtlose Navigation durch die verteilten Bestände erlauben."
  5. Reiner, U.: DDC-basierte Suche in heterogenen digitalen Bibliotheks- und Wissensbeständen (2005) 0.01
    0.007935553 = product of:
      0.03174221 = sum of:
        0.025048172 = weight(_text_:retrieval in 4854) [ClassicSimilarity], result of:
          0.025048172 = score(doc=4854,freq=2.0), product of:
            0.124912694 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.041294612 = queryNorm
            0.20052543 = fieldWeight in 4854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=4854)
        0.0066940407 = weight(_text_:of in 4854) [ClassicSimilarity], result of:
          0.0066940407 = score(doc=4854,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.103663445 = fieldWeight in 4854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=4854)
      0.25 = coord(2/8)
    
    Abstract
    Waehrend die Sachsuche schon seit Laengerem vereinheitlicht wurde, steht die Vereinheitlichung der Fachsuche fuer Endbenutzer(innen) im Wesentlichen noch aus. Als Mitglied im DFG-gefoerderten Konsortium DDC Deutsch erarbeitet der GBV Voraussetzungen fuer eine thematische Suche mit Hilfe von DDC-Notationen. Im Rahmen des VZG-Projektes Colibri (COntext Generation and LInguistic Tools for Bibliographic Retrieval Interfaces) wird das Ziel verfolgt, alle Titeldatensätze des Verbundkataloges (GVK) und die mehr als 20 Mio. Aufsatztitel der Online Contents Datenbank, die noch nicht intellektuell DDC-klassifiziert sind, entweder auf Basis von Konkordanzen zu anderen Erschliessungssystemen oder automatisch mit DDC-Notationen zu versehen. Hierzu wird aus GVK-Titeldatensaetzen eine DDC-Basis erstellt. Sowohl molekulare als auch atomare DDC-Notationen sind Bestandteil dieser DDC-Basis. Eingegangen wird auf den Stand der Forschung, insbesondere auf Songqiao Liu's Dissertation zur automatischen Zerlegung von DDC-Notationen (Univ. of California, Los Angeles, Calif., 1993). Anhand von Beispielen wird dargelegt, dass sich Liu's Ergebnisse reproduzieren lassen. Weiterhin wird der Stand der VZG-Colibri-Arbeiten zur Modell- und Begriffsbildung, Klassifizierung und Implementierung vorgestellt. Schliesslich wird gezeigt, wie DDC-Notationen zur systematischen Erkundung heterogener digitaler Bibliotheks- und Wissensbestaende herangezogen werden koennen.
  6. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.01
    0.007669405 = product of:
      0.06135524 = sum of:
        0.06135524 = weight(_text_:retrieval in 4322) [ClassicSimilarity], result of:
          0.06135524 = score(doc=4322,freq=12.0), product of:
            0.124912694 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.041294612 = queryNorm
            0.49118498 = fieldWeight in 4322, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.125 = coord(1/8)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  7. Gödert, W.: Wissensorganisation und Information Retrieval im Wandel : Konzepte für die Ausbildung in Deutschland (2001) 0.01
    0.007669405 = product of:
      0.06135524 = sum of:
        0.06135524 = weight(_text_:retrieval in 4833) [ClassicSimilarity], result of:
          0.06135524 = score(doc=4833,freq=12.0), product of:
            0.124912694 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.041294612 = queryNorm
            0.49118498 = fieldWeight in 4833, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=4833)
      0.125 = coord(1/8)
    
    Abstract
    Es wird ein Überblick gegeben, wie sich die Veränderungen sich im Bereich der Informationsverarbeitung und -technik auf die Gestaltung von Studienkonzepten im Bereich Wissensorganisation und Information Retrieval in deutschen bibliothekarischen Ausbildungseinrichtungen ausgewirkt haben. Dabei wird unterschieden in Bereiche der Veränderungen und in Bereiche der Stabilität. Die Bereiche der Veränderungen lassen sich den Verfahren und Anwendungen in der Praxis zuordnen. Sie sind zum einen geprägt durch eine integrative Sicht auf Indexierung und Information Retrieval und lassen sich zum anderen durch folgende Trends charakterisieren: - Von Katalogen zu OPACs und WebOPACs - Von der Katalogisierung zum intelligenten Information Retrieval und Suchmaschinen mit benutzerfreundlichen Interaktionsschnittstellen - Vom lokalen Katalog zum kooperativen Erschließen und Retrieval in heterogenen Netzen - Von intellektueller zu automatischer Indexierung - Von Regelwerken zu strukturierten Beschreibungsebenen (z.B. Metadaten) - Von Beschreibung und Bewertung zu Entwicklungen und Produktdesign Die Bereiche der Stabilität lassen sich der Theorie und den Methoden zuordnen und sind durch folgende Themen beschreibbar: - Grundlagen der Wissensorganisation und Informationserschließung (z.B. in Philosophie, Linguistik, Informatik, Kognitionspsychologie) - Grundlagen der Gestaltung von Dokumentationssprachen - Grundlagen des Information Retrieval
  8. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.01
    0.00697212 = product of:
      0.02788848 = sum of:
        0.016698781 = weight(_text_:retrieval in 3284) [ClassicSimilarity], result of:
          0.016698781 = score(doc=3284,freq=2.0), product of:
            0.124912694 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.041294612 = queryNorm
            0.13368362 = fieldWeight in 3284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.0111897 = product of:
          0.0223794 = sum of:
            0.0223794 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.0223794 = score(doc=3284,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
    Date
    22. 1.2010 14:41:24
  9. Braune-Egloff, D.: Integration der klassifikatorischen Suche in den Online-Katalog der FU Berlin, http://opac.fu-berlin.de : Nachtrag zur Präsentation in Krems am 23.09.2008 (2008) 0.01
    0.006262043 = product of:
      0.050096344 = sum of:
        0.050096344 = weight(_text_:retrieval in 6866) [ClassicSimilarity], result of:
          0.050096344 = score(doc=6866,freq=2.0), product of:
            0.124912694 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.041294612 = queryNorm
            0.40105087 = fieldWeight in 6866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.09375 = fieldNorm(doc=6866)
      0.125 = coord(1/8)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  10. Nohr, H.: Wissen und Wissensprozesse visualisieren (2000) 0.01
    0.0054340437 = product of:
      0.021736175 = sum of:
        0.014972764 = weight(_text_:use in 2974) [ClassicSimilarity], result of:
          0.014972764 = score(doc=2974,freq=2.0), product of:
            0.12644777 = queryWeight, product of:
              3.0620887 = idf(docFreq=5623, maxDocs=44218)
              0.041294612 = queryNorm
            0.11841066 = fieldWeight in 2974, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0620887 = idf(docFreq=5623, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2974)
        0.006763411 = weight(_text_:of in 2974) [ClassicSimilarity], result of:
          0.006763411 = score(doc=2974,freq=6.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.10473771 = fieldWeight in 2974, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2974)
      0.25 = coord(2/8)
    
    Abstract
    Wissen wird im modernen Wirtschaftsgeschehen zunehmend als eine wettbewerbsentscheidende Ressource angesehen. Es ist zu einem der wichtigsten Werte für Unternehmen geworden, um im globalen Wettbewerb bestehen zu können. Die Bemühungen der Unternehmen um Generierung und Akquisition von Wissen werden ständig intensiviert. Alle Anstrengungen, Wissen aus externen Quellen in die Unternehmung zu integrieren bzw. selbst neues Wissen zu erzeugen, bleiben allein jedoch wenig sinnvoll. "It's an ongoing quest within an organization (...) to help discover the location, ownership, value and use of knowledge artifacts, to lern the roles and expertise of people, to identify constraints to the flow of knowledge, and to highlight opportunities to leverage existing knowledge." (Grey 1999)
  11. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.00
    0.004427933 = product of:
      0.035423465 = sum of:
        0.035423465 = weight(_text_:retrieval in 4333) [ClassicSimilarity], result of:
          0.035423465 = score(doc=4333,freq=4.0), product of:
            0.124912694 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.041294612 = queryNorm
            0.2835858 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
      0.125 = coord(1/8)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  12. Bourdon, F.: Funktionale Anforderungen an bibliographische Datensätze und ein internationales Nummernsystem für Normdaten : wie weit kann Normierung durch Technik unterstützt werden? (2001) 0.00
    0.004196137 = product of:
      0.033569098 = sum of:
        0.033569098 = product of:
          0.067138195 = sum of:
            0.067138195 = weight(_text_:22 in 6888) [ClassicSimilarity], result of:
              0.067138195 = score(doc=6888,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.46428138 = fieldWeight in 6888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6888)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    26.12.2011 12:30:22
  13. Enzyklopädie 2003 : Das Wissen der Welt (2003) 0.00
    0.003743191 = product of:
      0.029945528 = sum of:
        0.029945528 = weight(_text_:use in 1243) [ClassicSimilarity], result of:
          0.029945528 = score(doc=1243,freq=2.0), product of:
            0.12644777 = queryWeight, product of:
              3.0620887 = idf(docFreq=5623, maxDocs=44218)
              0.041294612 = queryNorm
            0.23682132 = fieldWeight in 1243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0620887 = idf(docFreq=5623, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1243)
      0.125 = coord(1/8)
    
    Content
    Lexikon mit über 120.000 Stichwörtern, mehr als 15.000 Bildern und über 100.000 Querverweisen - 10.000 ausführliche Personendarstellungen - Medizinlexikon mit mehr als 5.000 Begriffen - Tierlexikon mit der Beschreibung von mehr als 2.000 Tieren - Computerlexikon mit über 2.000 Begriffen - Länderlexikon mit 7.000 Stichwörtern und umfangreichem Kartenmaterial - Wörterbuch Englisch-Deutsch und Deusch-Englisch - Fremdwörterlexikon mit 25.000 Einträgen - 10.000 redaktionell betreute und kommentierte Internetlinks zu allen themengebieten - Mehr als 30 Stunden Video- und Tondokumente aus Kunst, Musik und Geschichte - Anschaulich lernen und verstehen mit Diagrammen, Tabellen und Originaltexten - Easy-to-use-Benutzerführung: Die Software sofort ohne Handbuchlesen intuitiv verstehen und bedienen - Immer topaktuell durch Update via Internet
  14. Poggendorff, J.C.: Biographisch-literarisches Handwörterbuch der exakten Naturwissenschaften (2000) 0.00
    0.0034967812 = product of:
      0.02797425 = sum of:
        0.02797425 = product of:
          0.0559485 = sum of:
            0.0559485 = weight(_text_:22 in 6882) [ClassicSimilarity], result of:
              0.0559485 = score(doc=6882,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.38690117 = fieldWeight in 6882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6882)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    3. 4.1996 15:41:22
  15. Grimm, J.; Grimm, W.: Deutsches Wörterbuch - Der digitale Grimm : Elektronische Ausgabe der Erstbearbeitung (2004) 0.00
    0.0034967812 = product of:
      0.02797425 = sum of:
        0.02797425 = product of:
          0.0559485 = sum of:
            0.0559485 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.0559485 = score(doc=1203,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.38690117 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1203)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    22. 7.2004 9:54:37
  16. Erklärung zu den internationalen Katalogisierungsprinzipien (2009) 0.00
    0.0033516586 = product of:
      0.013406634 = sum of:
        0.007889003 = weight(_text_:of in 3286) [ClassicSimilarity], result of:
          0.007889003 = score(doc=3286,freq=4.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.12216854 = fieldWeight in 3286, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3286)
        0.0055176322 = product of:
          0.0110352645 = sum of:
            0.0110352645 = weight(_text_:on in 3286) [ClassicSimilarity], result of:
              0.0110352645 = score(doc=3286,freq=2.0), product of:
                0.090823986 = queryWeight, product of:
                  2.199415 = idf(docFreq=13325, maxDocs=44218)
                  0.041294612 = queryNorm
                0.121501654 = fieldWeight in 3286, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.199415 = idf(docFreq=13325, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3286)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Das "Statement of Principles" - allgemein bekannt als "Paris Principles" - wurde 1961 von der International Conference on Cataloguing Principles verabschiedet. Sein Ziel, als Basis für die internationale Standardisierung in der Katalogisierung zu dienen, ist sicherlich erreicht worden: Die meisten Katalogisierungsregelwerke, die in der Folgezeit weltweit entwickelt wurden, folgten den Prinzipien ganz oder wenigstens in hohem Maß. Mehr als vierzig Jahre später ist das Bedürfnis nach gemeinsamen internationalen Katalogisierungsregeln gewachsen, weil Katalogisierer und Benutzer weltweit OPACs (Online Public Access Catalogues = Online-Benutzerkataloge) nutzen. An der Schwelle des 21. Jahrhunderts hat die IFLA einen Vorstoß unternommen, neue Prinzipien zu erarbeiten, die auf Online-Bibliothekskataloge und auch darüber hinaus anwendbar sind. Das oberste Prinzip ist der Komfort des Katalognutzers. Diese Erklärung ersetzt die "Paris Principles" und weitet den Geltungsbereich von rein textlichen Werken auf alle Materialarten aus und von der Bestimmung und Form einer Eintragung auf alle Aspekte von bibliografischen Daten und Normdaten, die in Bibliothekskatalogen genutzt werden. Sie umfasst nicht nur Prinzipien und Ziele (d. h. Funktionen des Katalogs), sondern auch Regelungen, die international in Katalogisierungsregelwerken enthalten sein sollten, und gibt Anleitung für Suchfunktionen. Die Prinzipien bauen auf den großen Katalogtraditionen der Welt sowie auf dem konzeptionellen Modell der Functional Requirements for Bibliographic Records (FRBR) der IFLA auf.
    Footnote
    Deutsche Übersetzung von: Statement of International Cataloguing Principles.
  17. Brockhaus Enzyklopädie Digital (2005) 0.00
    0.002797425 = product of:
      0.0223794 = sum of:
        0.0223794 = product of:
          0.0447588 = sum of:
            0.0447588 = weight(_text_:22 in 3481) [ClassicSimilarity], result of:
              0.0447588 = score(doc=3481,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.30952093 = fieldWeight in 3481, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3481)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Komplette Textsubstanz aller 30 Bände + Zusatz- und Quellentexte mit nahezu demselben Umfang wie die Brockhaus Enzyklopädie Umfassende Recherchemöglichkeiten, einschließlich natürlichsprachlicher Suchhilfe Frei dreh- und zoombarer 3-D-Globus mit mehr als 2 Millionen geografischen Karteneinträgen 25000 Bilder und Zugang zur Bilddatenbank der dpa mit mehr als 2 Millionen Bildern 280 Videos, 140 Animationen, 6000 Audios, 22 000 kommentierte Weblinks u.v. m. Zugriff auf die Brockhaus Enzyklopädie Online (auch per minibrowserfähigem PDA, Smartphone oder Pocket-PC*), kostenlos bis 31.12.2010 1 USB-Memory-Stick in Docking-Station Für Windows
  18. Schneider, R.: Bibliothek 1.0, 2.0 oder 3.0? (2008) 0.00
    0.0024477467 = product of:
      0.019581974 = sum of:
        0.019581974 = product of:
          0.039163947 = sum of:
            0.039163947 = weight(_text_:22 in 6122) [ClassicSimilarity], result of:
              0.039163947 = score(doc=6122,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.2708308 = fieldWeight in 6122, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6122)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Noch ist nicht entschieden mit welcher Vehemenz das sogenannte Web 2.0 die Bibliotheken verändern wird. Allerdings wird hier und da bereits mit Bezugnahme auf das sogenannte Semantic Web von einer dritten und mancherorts von einer vierten Generation des Web gesprochen. Der Vortrag hinterfragt kritisch, welche Konzepte sich hinter diesen Bezeichnungen verbergen und geht der Frage nach, welche Herausforderungen eine Übernahme dieser Konzepte für die Bibliothekswelt mit sich bringen würde. Vgl. insbes. Folie 22 mit einer Darstellung von der Entwicklung vom Web 1.0 zum Web 4.0
  19. Schröder, B.: Geschichtsverdrehungen (2003) 0.00
    0.0020980686 = product of:
      0.016784549 = sum of:
        0.016784549 = product of:
          0.033569098 = sum of:
            0.033569098 = weight(_text_:22 in 1373) [ClassicSimilarity], result of:
              0.033569098 = score(doc=1373,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.23214069 = fieldWeight in 1373, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1373)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    24. 2.2003 14:22:57
  20. Schetsche, M.: ¬Die ergoogelte Wirklichkeit : Verschwörungstheorien und das Internet (2005) 0.00
    0.0020980686 = product of:
      0.016784549 = sum of:
        0.016784549 = product of:
          0.033569098 = sum of:
            0.033569098 = weight(_text_:22 in 3397) [ClassicSimilarity], result of:
              0.033569098 = score(doc=3397,freq=2.0), product of:
                0.1446067 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041294612 = queryNorm
                0.23214069 = fieldWeight in 3397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3397)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    "Zweimal täglich googeln" empfiehlt Mathias Bröckers in seinem Buch "Verschwörungen, Verschwörungstheorien und die Geheimnisse des 11.9.". Der Band gilt den gutbürgerlichen Medien von FAZ bis Spiegel als Musterbeispiel krankhafter Verschwörungstheorie. Dabei wollte der Autor - nach eigenem Bekunden - keine Verschwörungstheorie zum 11. September vorlegen, sondern lediglich auf Widersprüche und Fragwürdigkeiten in den amtlichen Darstellungen und Erklärungen der US-Regierung zu jenem Terroranschlag hinweisen. Unabhängig davon, wie ernst diese Einlassungen des Autors zu nehmen sind, ist der "Fall Bröckers" für die Erforschung von Verschwörungstheorien unter zwei Aspekten interessant: Erstens geht der Band auf ein [[extern] ] konspirologisches Tagebuch zurück, das der Autor zwischen dem 13. September 2001 und dem 22. März 2002 für das Online-Magazin Telepolis verfasst hat; zweitens behauptet Bröckers in der Einleitung zum Buch, dass er für seine Arbeit ausschließlich über das Netz zugängliche Quellen genutzt habe. Hierbei hätte ihm Google unverzichtbare Dienste geleistet: Um an die Informationen in diesem Buch zu kommen, musste ich weder über besondere Beziehungen verfügen, noch mich mit Schlapphüten und Turbanträgern zu klandestinen Treffen verabreden - alle Quellen liegen offen. Sie zu finden, leistete mir die Internet-Suchmaschine Google unschätzbare Dienste. Mathias Bröckers