Search (590 results, page 2 of 30)

  • × type_ss:"el"
  1. Coyle, K.: ¬The virtual union catalog : a comparative study (2000) 0.02
    0.019973617 = product of:
      0.1198417 = sum of:
        0.09001986 = weight(_text_:verteilte in 1230) [ClassicSimilarity], result of:
          0.09001986 = score(doc=1230,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.42791936 = fieldWeight in 1230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.046875 = fieldNorm(doc=1230)
        0.029821843 = product of:
          0.059643686 = sum of:
            0.059643686 = weight(_text_:allgemein in 1230) [ClassicSimilarity], result of:
              0.059643686 = score(doc=1230,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.34831727 = fieldWeight in 1230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1230)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Theme
    Verteilte bibliographische Datenbanken
    Katalogfragen allgemein
  2. Schönherr, M.: Bestechend brillant : die Schönheit der Algorithmen (2016) 0.02
    0.019303244 = product of:
      0.115819454 = sum of:
        0.09374267 = weight(_text_:informatik in 2762) [ClassicSimilarity], result of:
          0.09374267 = score(doc=2762,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.563749 = fieldWeight in 2762, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.078125 = fieldNorm(doc=2762)
        0.022076784 = product of:
          0.044153567 = sum of:
            0.044153567 = weight(_text_:22 in 2762) [ClassicSimilarity], result of:
              0.044153567 = score(doc=2762,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.38690117 = fieldWeight in 2762, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2762)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    10. 2.2016 17:22:23
    Field
    Informatik
  3. IBR-CD-ROM: Internationale Bibliographie der Rezensionen wissenschaftlicher Literatur : wissenschaftliche Monographien; wissenschaftliche Rezensionen; Monographien-Datenbank; CD-ROM (1995) 0.02
    0.018858131 = product of:
      0.22629757 = sum of:
        0.22629757 = weight(_text_:monographien in 6477) [ClassicSimilarity], result of:
          0.22629757 = score(doc=6477,freq=4.0), product of:
            0.21725276 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032588977 = queryNorm
            1.0416327 = fieldWeight in 6477, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.078125 = fieldNorm(doc=6477)
      0.083333336 = coord(1/12)
    
  4. Lügger, J.: Kooperativer Bibliotheksverbund Berlin-Brandenburg : Lokale Konzepte und technische Schnittstellen (1997) 0.02
    0.017503863 = product of:
      0.21004635 = sum of:
        0.21004635 = weight(_text_:verteilte in 5470) [ClassicSimilarity], result of:
          0.21004635 = score(doc=5470,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.99847853 = fieldWeight in 5470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.109375 = fieldNorm(doc=5470)
      0.083333336 = coord(1/12)
    
    Theme
    Verteilte bibliographische Datenbanken
  5. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.02
    0.016999193 = product of:
      0.06799677 = sum of:
        0.039771643 = weight(_text_:informatik in 3385) [ClassicSimilarity], result of:
          0.039771643 = score(doc=3385,freq=4.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.23917845 = fieldWeight in 3385, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.013314205 = weight(_text_:internet in 3385) [ClassicSimilarity], result of:
          0.013314205 = score(doc=3385,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.13838623 = fieldWeight in 3385, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.014910921 = product of:
          0.029821843 = sum of:
            0.029821843 = weight(_text_:allgemein in 3385) [ClassicSimilarity], result of:
              0.029821843 = score(doc=3385,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.17415863 = fieldWeight in 3385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3385)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
    Field
    Informatik
  6. Eckert, K.: SKOS: eine Sprache für die Übertragung von Thesauri ins Semantic Web (2011) 0.02
    0.016691115 = product of:
      0.10014668 = sum of:
        0.08248526 = weight(_text_:systeme in 4331) [ClassicSimilarity], result of:
          0.08248526 = score(doc=4331,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.4729882 = fieldWeight in 4331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0625 = fieldNorm(doc=4331)
        0.017661426 = product of:
          0.035322852 = sum of:
            0.035322852 = weight(_text_:22 in 4331) [ClassicSimilarity], result of:
              0.035322852 = score(doc=4331,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.30952093 = fieldWeight in 4331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4331)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Das Semantic Web - bzw. Linked Data - hat das Potenzial, die Verfügbarkeit von Daten und Wissen, sowie den Zugriff darauf zu revolutionieren. Einen großen Beitrag dazu können Wissensorganisationssysteme wie Thesauri leisten, die die Daten inhaltlich erschließen und strukturieren. Leider sind immer noch viele dieser Systeme lediglich in Buchform oder in speziellen Anwendungen verfügbar. Wie also lassen sie sich für das Semantic Web nutzen? Das Simple Knowledge Organization System (SKOS) bietet eine Möglichkeit, die Wissensorganisationssysteme in eine Form zu "übersetzen", die im Web zitiert und mit anderen Resourcen verknüpft werden kann.
    Date
    15. 3.2011 19:21:22
  7. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.02
    0.016680509 = product of:
      0.066722035 = sum of:
        0.023435667 = weight(_text_:informatik in 5908) [ClassicSimilarity], result of:
          0.023435667 = score(doc=5908,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.14093725 = fieldWeight in 5908, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        0.017509725 = product of:
          0.03501945 = sum of:
            0.03501945 = weight(_text_:vernetzung in 5908) [ClassicSimilarity], result of:
              0.03501945 = score(doc=5908,freq=2.0), product of:
                0.20326729 = queryWeight, product of:
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.032588977 = queryNorm
                0.17228276 = fieldWeight in 5908, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5908)
          0.5 = coord(1/2)
        0.025776641 = weight(_text_:systeme in 5908) [ClassicSimilarity], result of:
          0.025776641 = score(doc=5908,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.1478088 = fieldWeight in 5908, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
      0.25 = coord(3/12)
    
    Content
    1. Sicherheit wird in eine reibungslose Reise integriert. In Zukunft bedeutet Sicherheit, dass man einen Korridor entlanggeht. Man muss dann nicht mehr Mantel, Schuhe und Gürtel ablegen oder kleine Fläschchen in kleine Beutel stecken. Menschenschlangen sind dann ebenfalls passé. Die Passagiere und ihre Gepäckstücke werden automatisch erkannt, wenn sie automatisierte Kontrollpunkte passieren. Feste Kontrollpunkte werden durch Sensoren ersetzt - das physische Überprüfen von Dokumenten gehört der Vergangenheit an. 2. Passagiere verwalten ihre digitale Identität selbst. Mit der Einführung der selbstbestimmten digitalen Identität und dauerhafter Reisemarken haben Passagiere die Kontrolle darüber, welche Aspekte ihrer Identität während der Reise zu welchem Zweck preisgegeben werden. Im Flughafen der Zukunft werden Risiken laufend von spezieller Künstlicher Intelligenz (KI) bewertet, wobei die digitale Identität jedes einzelnen Passagiers geprüft wird. Die sensiblen persönlichen Daten werden nur noch von den betreffenden staatlichen Behörden genutzt, die automatisierte miteinander vernetzte Systeme nutzen, um einzelne Reiseschritte zu genehmigen - bzw. in bestimmten Fällen nicht zu genehmigen. Fluggesellschaften sind nicht länger für die Verarbeitung der Passagierdaten und die Sicherung der Staatsgrenzen verantwortlich.
    7. Flughäfen sind äußerst automatisiert. Die schnelle mobile Vernetzung am Flughafen ist für sein Leistungsvermögen von zentraler Bedeutung. Flughäfen werden immer mehr in Echtzeit betrieben, sodass Automatisierung und Selbstbedienung alle Abläufe rationalisieren. Miteinander vernetzte, automatisierte und autonome Fahrzeuge und Roboter sind auf dem gesamten Flughafengelände allgegenwärtig. Die Automatisierung ermöglicht auch eine effizientere gemeinsame Aufteilung und Nutzung der Ressourcen. Eine Vielzahl von Objekten - vom Gepäck bis zum Flugzeugschlepper - sind über 5G-Netze miteinander verbunden, die riesige Datenmengen liefern und Echtzeit-, Vorhersage- und historische Ansichten des Flughafenbetriebs liefern. 8. Flughäfen passen sich den Bedürfnissen der Passagiere an. Die schnelle, reibungslose Reise zum und im Flughafen sorgt dafür, dass einige Einnahmequellen, etwa Parkgebühren, geringer werden oder ganz entfallen. Deshalb werden Flughäfen sich neue Möglichkeiten einfallen lassen müssen, um diese Einnahmequellen zu ersetzen und den Passagieren ein interessantes Reiseerlebnis zu bieten. Personalisierung heißt das neue Zauberwort - dass man jedem einzelnen Fluggast das anbietet, was er braucht, und zwar dann, wenn er es braucht, und das nicht nur auf dem Flughafengelände, sondern vom Reisebeginn bis zum Reiseziel. Denkbare Beispiele sind ein vom Flughafen betriebener Limousinen-Fahrdienst einschließlich Gepäckprüfung beim Gast zu Hause, im Büro oder im Hotel und besonders schnelle Reisegenehmigungen und Erleichterungen für Vielflieger.
    Field
    Informatik
  8. Sietmann, R.: Suchmaschine für das akademische Internet (2004) 0.02
    0.01620115 = product of:
      0.09720689 = sum of:
        0.07501655 = weight(_text_:verteilte in 5742) [ClassicSimilarity], result of:
          0.07501655 = score(doc=5742,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.35659945 = fieldWeight in 5742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
        0.022190342 = weight(_text_:internet in 5742) [ClassicSimilarity], result of:
          0.022190342 = score(doc=5742,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.23064373 = fieldWeight in 5742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
      0.16666667 = coord(2/12)
    
    Abstract
    In Zusammenarbeit mit der norwegischen Suchtechnologie-Firma Fast Search & Transfer hat die Universitätsbibliothek Bielefeld den Prototyp einer Suchmaschine für wissenschaftliche Bibliotheken entwickelt. Dieser demonstriert jetzt mit dem öffentlichen Zugriff auf ausgewählte digitalisierte Sammlungen der Projektteilnehmer die neuen Möglichkeiten des akademischen Retrieval. <http://www.heise.de/RealMedia/ads/adstream_lx.ads/www.heise.de/newsticker/meldungen/wissenschaft/954604605/Middle1/he-test-contentads/zaehler.html/38363566383735383364653062323630?_RM_EMPTY_> Während kommerzielle Suchmaschinen wie Google oder Yahoo sich nicht an akademischen Kriterien orientieren, beschränkt sich die Bielefeld Academic Search Engine (BASE ) auf die von wissenschaftlichen Bibliotheken erschlossenen und aufbereiteten Inhalte. Dazu gehören Hochschulschriften, Preprints, elektronische Zeitschriften und digitale Sammlungen, wie beispielsweise die "Internet Library of Early Journals" des Oxford University Library Service und die "Wissenschaftlichen Rezensionsorgane und Literaturzeitschriften des 18. und 19. Jahrhunderts aus dem deutschen Sprachraum" der UB Bielefeld. Wer etwa bei Google die Stichworte "Immanuel Kant" +Frieden eingibt, kommt zwar schnell an den Originaltext des Aufsatzes "Zum ewigen Frieden" heran, tut sich jedoch schwer, unter den bunt gemischten über 11.000 Treffern gezielt weiter zu recherchieren. Das BASE-Modell dagegen stellt dem Nutzer hierfür vielfältige Navigationshilfen und Metainformationen zur Verfügung. So erleichtert unter anderem die Verfeinerung der Suche auf das Erscheinungsjahr den Zugriff auf die zeitgenössische Diskussion der berühmten Schrift des Königsberger Philosophen. Derzeit ermöglicht der BASE-Prototyp das Retrieval in 15 verschiedenen Archivquellen. Darunter befinden sich die Zeitschriften der Aufklärung, die Elektronischen Dissertationen der Universität Bochum, das elektronische Journal Documenta Mathematica sowie die Mathematischen Volltexte des Springer-Verlags. Der geplante Ausbau soll sich auf eine verteilte Architektur stützen, in der von einzelnen Bibliotheken lokal erstellte Indexe gemeinsam zu einem virtuellen Master-Index beitragen. Dies würde dem Nutzer die nahtlose Navigation durch die verteilten Bestände erlauben."
  9. Roszkowski, M.; Lukas, C.: ¬A distributed architecture for resource discovery using metadata (1998) 0.02
    0.015919631 = product of:
      0.095517784 = sum of:
        0.060013242 = weight(_text_:verteilte in 1256) [ClassicSimilarity], result of:
          0.060013242 = score(doc=1256,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.28527957 = fieldWeight in 1256, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.03125 = fieldNorm(doc=1256)
        0.035504546 = weight(_text_:internet in 1256) [ClassicSimilarity], result of:
          0.035504546 = score(doc=1256,freq=16.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.36902997 = fieldWeight in 1256, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=1256)
      0.16666667 = coord(2/12)
    
    Abstract
    This article describes an approach for linking geographically distributed collections of metadata so that they are searchable as a single collection. We describe the infrastructure, which uses standard Internet protocols such as the Lightweight Directory Access Protocol (LDAP) and the Common Indexing Protocol (CIP), to distribute queries, return results, and exchange index information. We discuss the advantages of using linked collections of authoritative metadata as an alternative to using a keyword indexing search-engine for resource discovery. We examine other architectures that use metadata for resource discovery, such as Dienst/NCSTRL, the AHDS HTTP/Z39.50 Gateway, and the ROADS initiative. Finally, we discuss research issues and future directions of the project. The Internet Scout Project, which is funded by the National Science Foundation and is located in the Computer Sciences Department at the University of Wisconsin-Madison, is charged with assisting the higher education community in resource discovery on the Internet. To that end, the Scout Report and subsequent subject-specific Scout Reports were developed to guide the U.S. higher education community to research-quality resources. The Scout Report Signpost utilizes the content from the Scout Reports as the basis of a metadata collection. Signpost consists of more than 2000 cataloged Internet sites using established standards such as Library of Congress subject headings and abbreviated call letters, and emerging standards such as the Dublin Core (DC). This searchable and browseable collection is free and freely accessible, as are all of the Internet Scout Project's services.
    As well developed as both the Scout Reports and Signpost are, they cannot capture the wealth of high-quality content that is available on the Internet. An obvious next step toward increasing the usefulness of our own collection and its value to our customer base is to partner with other high-quality content providers who have developed similar collections and to develop a single, virtual collection. Project Isaac (working title) is the Internet Scout Project's latest resource discovery effort. Project Isaac involves the development of a research testbed that allows experimentation with protocols and algorithms for creating, maintaining, indexing and searching distributed collections of metadata. Project Isaac's infrastructure uses standard Internet protocols, such as the Lightweight Directory Access Protocol (LDAP) and the Common Indexing Protocol (CIP) to distribute queries, return results, and exchange index or centroid information. The overall goal is to support a single-search interface to geographically distributed and independently maintained metadata collections.
    Theme
    Verteilte bibliographische Datenbanken
  10. Wegner, B.: Mathematik im Blickpunkt : Wissensmanagement in der Mathematik - 140 Jahre Information zur Literatur weltweit (2008) 0.02
    0.01569032 = product of:
      0.094141915 = sum of:
        0.0721746 = weight(_text_:systeme in 4081) [ClassicSimilarity], result of:
          0.0721746 = score(doc=4081,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.41386467 = fieldWeight in 4081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4081)
        0.021967318 = weight(_text_:internet in 4081) [ClassicSimilarity], result of:
          0.021967318 = score(doc=4081,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.22832564 = fieldWeight in 4081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4081)
      0.16666667 = coord(2/12)
    
    Content
    Inhalt: Mathematik im Web: die Informationsdienste von FIZ Karlsruhe/Zentralblatt MATH - eine Bestandsaufnahme - O. Ninnemann Die Anfänge des Wissensmanagements in der Mathematik: das "Jahrbuch über die Fortschritte der Mathematik" - S. Göbel Mathematik-Information im Wechsel der Zeiten und politischen Systeme - B. Wegner MathEduc - Informationen zum Lernen und Lehren von Mathematik - B. Ruffer-Henn, B. Wegner Die WDML - Ideen und Wirklichkeit - B. Wegner Über Suchmaschinen und Datenbanken - W. Sperber Der Mathematiker Wolfgang Doeblin (1915-1940) - Recherchen im Internet - S. Göbel Kryptographie und Turing-Maschinen - E Rossi Wo spielt die Musik im Zentralblatt? Recherchen am Rande der Mathematik - K.-D. Kiermeier Vom Vierfarbenproblem zum Vierfarbensatz - eine Analyse mit Hilfe des Zentralblatt MATH - H. Kröger
  11. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.02
    0.015442593 = product of:
      0.092655554 = sum of:
        0.07499413 = weight(_text_:informatik in 4427) [ClassicSimilarity], result of:
          0.07499413 = score(doc=4427,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.4509992 = fieldWeight in 4427, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0625 = fieldNorm(doc=4427)
        0.017661426 = product of:
          0.035322852 = sum of:
            0.035322852 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
              0.035322852 = score(doc=4427,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.30952093 = fieldWeight in 4427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4427)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    22. 1.2018 11:08:27
    Field
    Informatik
  12. Lügger, J.: Wo ist der OPAC der virtuellen Bibliothek? : Strukturen des Kooperativen Bibliotheksverbundes (1997) 0.02
    0.0150033105 = product of:
      0.18003972 = sum of:
        0.18003972 = weight(_text_:verteilte in 1244) [ClassicSimilarity], result of:
          0.18003972 = score(doc=1244,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.8558387 = fieldWeight in 1244, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.09375 = fieldNorm(doc=1244)
      0.083333336 = coord(1/12)
    
    Theme
    Verteilte bibliographische Datenbanken
  13. Jäger, L.: Von Big Data zu Big Brother (2018) 0.01
    0.014720133 = product of:
      0.05888053 = sum of:
        0.037497066 = weight(_text_:informatik in 5234) [ClassicSimilarity], result of:
          0.037497066 = score(doc=5234,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.2254996 = fieldWeight in 5234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=5234)
        0.012552753 = weight(_text_:internet in 5234) [ClassicSimilarity], result of:
          0.012552753 = score(doc=5234,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.1304718 = fieldWeight in 5234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5234)
        0.008830713 = product of:
          0.017661426 = sum of:
            0.017661426 = weight(_text_:22 in 5234) [ClassicSimilarity], result of:
              0.017661426 = score(doc=5234,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.15476047 = fieldWeight in 5234, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5234)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Abstract
    1983 bewegte ein einziges Thema die gesamte Bundesrepublik: die geplante Volkszählung. Jeder Haushalt in Westdeutschland sollte Fragebögen mit 36 Fragen zur Wohnsituation, den im Haushalt lebenden Personen und über ihre Einkommensverhältnisse ausfüllen. Es regte sich massiver Widerstand, hunderte Bürgerinitiativen formierten sich im ganzen Land gegen die Befragung. Man wollte nicht "erfasst" werden, die Privatsphäre war heilig. Es bestand die (berechtigte) Sorge, dass die Antworten auf den eigentlich anonymisierten Fragebögen Rückschlüsse auf die Identität der Befragten zulassen. Das Bundesverfassungsgericht gab den Klägern gegen den Zensus Recht: Die geplante Volkszählung verstieß gegen den Datenschutz und damit auch gegen das Grundgesetz. Sie wurde gestoppt. Nur eine Generation später geben wir sorglos jedes Mal beim Einkaufen die Bonuskarte der Supermarktkette heraus, um ein paar Punkte für ein Geschenk oder Rabatte beim nächsten Einkauf zu sammeln. Und dabei wissen wir sehr wohl, dass der Supermarkt damit unser Konsumverhalten bis ins letzte Detail erfährt. Was wir nicht wissen, ist, wer noch Zugang zu diesen Daten erhält. Deren Käufer bekommen nicht nur Zugriff auf unsere Einkäufe, sondern können über sie auch unsere Gewohnheiten, persönlichen Vorlieben und Einkommen ermitteln. Genauso unbeschwert surfen wir im Internet, googeln und shoppen, mailen und chatten. Google, Facebook und Microsoft schauen bei all dem nicht nur zu, sondern speichern auf alle Zeiten alles, was wir von uns geben, was wir einkaufen, was wir suchen, und verwenden es für ihre eigenen Zwecke. Sie durchstöbern unsere E-Mails, kennen unser persönliches Zeitmanagement, verfolgen unseren momentanen Standort, wissen um unsere politischen, religiösen und sexuellen Präferenzen (wer kennt ihn nicht, den Button "an Männern interessiert" oder "an Frauen interessiert"?), unsere engsten Freunde, mit denen wir online verbunden sind, unseren Beziehungsstatus, welche Schule wir besuchen oder besucht haben und vieles mehr.
    Date
    22. 1.2018 11:33:49
    Field
    Informatik
  14. Geuter, J.: Nein, Ethik kann man nicht programmieren (2018) 0.01
    0.014597863 = product of:
      0.08758718 = sum of:
        0.06561986 = weight(_text_:informatik in 4428) [ClassicSimilarity], result of:
          0.06561986 = score(doc=4428,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.3946243 = fieldWeight in 4428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4428)
        0.021967318 = weight(_text_:internet in 4428) [ClassicSimilarity], result of:
          0.021967318 = score(doc=4428,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.22832564 = fieldWeight in 4428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4428)
      0.16666667 = coord(2/12)
    
    Field
    Informatik
    Source
    https://www.zeit.de/digital/internet/2018-11/digitalisierung-mythen-kuenstliche-intelligenz-ethik-juergen-geuter/komplettansicht?print
  15. Barth, T.: Digitalisierung und Lobby : Transhumanismus I (2020) 0.01
    0.014597863 = product of:
      0.08758718 = sum of:
        0.06561986 = weight(_text_:informatik in 5665) [ClassicSimilarity], result of:
          0.06561986 = score(doc=5665,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.3946243 = fieldWeight in 5665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5665)
        0.021967318 = weight(_text_:internet in 5665) [ClassicSimilarity], result of:
          0.021967318 = score(doc=5665,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.22832564 = fieldWeight in 5665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5665)
      0.16666667 = coord(2/12)
    
    Abstract
    Transhumanisten bringen bunte Tupfer in die aktuelle Digitalisierungsdebatte, aber auch gefährliche Blütenträume, Lobbyismus und Angst - vor den Chinesen. Wir werfen einen Blick auf die Transhumanistische Partei Deutschlands, den transhumanen Philosophen Sorgner, die mit aktueller Magnet-Hirnstimulation noch unzufriedene Medienforscherin Miriam Meckel, aber auch auf Kritiker einer allzu euphorischen Digitalisierung. Es wird sich zeigen, dass der Transhumanismus differenziert gesehen werden muss - und dass man am Ende bei aller Technik-Euphorie doch nicht um eine Kritik des Internet-Panoptikums herumkommt.
    Field
    Informatik
  16. Ask me[@sk.me]: your global information guide : der Wegweiser durch die Informationswelten (1996) 0.01
    0.014255645 = product of:
      0.085533865 = sum of:
        0.050211012 = weight(_text_:internet in 5837) [ClassicSimilarity], result of:
          0.050211012 = score(doc=5837,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.5218872 = fieldWeight in 5837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.125 = fieldNorm(doc=5837)
        0.035322852 = product of:
          0.070645705 = sum of:
            0.070645705 = weight(_text_:22 in 5837) [ClassicSimilarity], result of:
              0.070645705 = score(doc=5837,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.61904186 = fieldWeight in 5837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5837)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    30.11.1996 13:22:37
    Theme
    Internet
  17. Radermacher, F.-J.: ¬Eine systemtheoretische Sicht auf intelligente Systeme (1995 (?)) 0.01
    0.013747543 = product of:
      0.16497052 = sum of:
        0.16497052 = weight(_text_:systeme in 1324) [ClassicSimilarity], result of:
          0.16497052 = score(doc=1324,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.9459764 = fieldWeight in 1324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.125 = fieldNorm(doc=1324)
      0.083333336 = coord(1/12)
    
  18. Bibliotheken und die Vernetzung des Wissens (2002) 0.01
    0.013477102 = product of:
      0.08086261 = sum of:
        0.039619982 = product of:
          0.079239964 = sum of:
            0.079239964 = weight(_text_:vernetzung in 1741) [ClassicSimilarity], result of:
              0.079239964 = score(doc=1741,freq=4.0), product of:
                0.20326729 = queryWeight, product of:
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.032588977 = queryNorm
                0.38983136 = fieldWeight in 1741, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1741)
          0.5 = coord(1/2)
        0.04124263 = weight(_text_:systeme in 1741) [ClassicSimilarity], result of:
          0.04124263 = score(doc=1741,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2364941 = fieldWeight in 1741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=1741)
      0.16666667 = coord(2/12)
    
    Abstract
    Bibliotheken verlassen zunehmend ihre traditionellen Pfade (Sammlung und Bereitstellung von Informationen und Medien) und erproben neue institutionelle Ausrichtungen. Sie übernehmen zusätzlich im Hinblick auf ihre Zielgruppen soziale, kulturelle und lernunterstützenden Funktionen. Diese Profilveränderung kann aber nur in einer vernetzten Struktur von Bildungs-, Kultureinrichtungen und sozialen Institutionen in einem räumlich gesamtzusammenhang stattfinden. diesem Zweck dienen kooperative Bildungs- und Lernarrangements abenso wie an Nutzerbedürfnissen orientierte technische systeme der digitalen Informationspräsentation, Recherche und Interaktion. Praktikern wie wissenschaftlich Interessierten aus Bibliotheken und deren kooperierenden Partnern aus Bildung und Kultur bietet dieser Band eine Fülle praxisorientierter Beispiele, die mögliche Profilveränderungen und Gestaltungsspielräume für Bibliotheken aufzeigen
    Content
    Enthält die Beiträge: (1) Organisationsveränderung durch kooperatives Handeln: STANG, R.: Vernetzung als Zukunftsmodell; BUßMANN, I. u.a.: Innovative Lernarrangements in der institutionellen Umsetzung; KIL, M.: Lernveränderung = Organisationsveränderung?; STANNETT, A. u. A. CHADWICK: Lifelong learning, libraries and museums in the United Kingdom; UMLAUF, K.: Professionsveränderung in netzwerkbezogenen Arbeitsumgebungen - (2) Lernender Stadtteil: STEFFEN, G.: Die Stadt und der Stadtteil; PUHL, A.: Stadtteilbüchereien in der Fremdsicht; PUHL, A.: Institutionelle Kooperation in der Bildungsberatung - (3) Informationsnetze - gesucht und nicht gefunden: GÖDERT, W.: Zwischen Individuum und Wissen; THISSEN, F.: Verloren in digitalen Netzen - (4) Umsetzungshilfen: STANG, R.: Lerarrangements und Wissensangebote gestalten - (5) Ausblick: PUHL, A.: Aktuelle Forschungsbedarfe
  19. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.01
    0.013448846 = product of:
      0.08069307 = sum of:
        0.061863944 = weight(_text_:systeme in 2434) [ClassicSimilarity], result of:
          0.061863944 = score(doc=2434,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.35474116 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
        0.01882913 = weight(_text_:internet in 2434) [ClassicSimilarity], result of:
          0.01882913 = score(doc=2434,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.1957077 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
      0.16666667 = coord(2/12)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert, berichtet Technology Review in seiner Online-Ausgabe. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbstständig ermittelt.""
  20. Birmingham, J.: Internet search engines (1996) 0.01
    0.013291493 = product of:
      0.07974896 = sum of:
        0.05325682 = weight(_text_:internet in 5664) [ClassicSimilarity], result of:
          0.05325682 = score(doc=5664,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.55354494 = fieldWeight in 5664, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=5664)
        0.02649214 = product of:
          0.05298428 = sum of:
            0.05298428 = weight(_text_:22 in 5664) [ClassicSimilarity], result of:
              0.05298428 = score(doc=5664,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.46428138 = fieldWeight in 5664, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5664)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Content
    Darstellung zu verschiedenen search engines des Internet
    Date
    10.11.1996 16:36:22

Years

Languages

  • d 337
  • e 238
  • a 3
  • el 2
  • m 1
  • nl 1
  • More… Less…

Types

  • a 269
  • i 23
  • m 15
  • r 11
  • x 10
  • s 9
  • b 6
  • n 2
  • p 1
  • More… Less…

Classifications