Search (225 results, page 1 of 12)

  • × type_ss:"el"
  1. Arc Deutschland'500 0.10
    0.097567745 = product of:
      0.19513549 = sum of:
        0.19513549 = product of:
          0.39027098 = sum of:
            0.39027098 = weight(_text_:500 in 3436) [ClassicSimilarity], result of:
              0.39027098 = score(doc=3436,freq=2.0), product of:
                0.36112627 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.059071355 = queryNorm
                1.080705 = fieldWeight in 3436, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.125 = fieldNorm(doc=3436)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  2. Understanding metadata (2004) 0.08
    0.08117986 = sum of:
      0.04916645 = product of:
        0.14749934 = sum of:
          0.14749934 = weight(_text_:objects in 2686) [ClassicSimilarity], result of:
            0.14749934 = score(doc=2686,freq=2.0), product of:
              0.31396845 = queryWeight, product of:
                5.315071 = idf(docFreq=590, maxDocs=44218)
                0.059071355 = queryNorm
              0.46979034 = fieldWeight in 2686, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.315071 = idf(docFreq=590, maxDocs=44218)
                0.0625 = fieldNorm(doc=2686)
        0.33333334 = coord(1/3)
      0.032013413 = product of:
        0.064026825 = sum of:
          0.064026825 = weight(_text_:22 in 2686) [ClassicSimilarity], result of:
            0.064026825 = score(doc=2686,freq=2.0), product of:
              0.20685782 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.059071355 = queryNorm
              0.30952093 = fieldWeight in 2686, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=2686)
        0.5 = coord(1/2)
    
    Abstract
    Metadata (structured information about an object or collection of objects) is increasingly important to libraries, archives, and museums. And although librarians are familiar with a number of issues that apply to creating and using metadata (e.g., authority control, controlled vocabularies, etc.), the world of metadata is nonetheless different than library cataloging, with its own set of challenges. Therefore, whether you are new to these concepts or quite experienced with classic cataloging, this short (20 pages) introductory paper on metadata can be helpful
    Date
    10. 9.2004 10:22:40
  3. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.08
    0.07818414 = product of:
      0.15636829 = sum of:
        0.15636829 = product of:
          0.46910486 = sum of:
            0.46910486 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.46910486 = score(doc=1826,freq=2.0), product of:
                0.5008076 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.059071355 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  4. Museen in Deutschland (1995) 0.07
    0.07317581 = product of:
      0.14635162 = sum of:
        0.14635162 = product of:
          0.29270324 = sum of:
            0.29270324 = weight(_text_:500 in 4387) [ClassicSimilarity], result of:
              0.29270324 = score(doc=4387,freq=2.0), product of:
                0.36112627 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.059071355 = queryNorm
                0.81052876 = fieldWeight in 4387, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4387)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Über 500 MByte Multimediadaten, Videofilme, Fotos und Sound. Weit über 1.500 Adressen von Museen und Ausstellungen abrufbar nach unterschiedlichsten Suchkriterien wie z.B. Name, Ort / PLZ, Personen, Sammelbegriffe, A-Z
  5. Priss, U.: Faceted knowledge representation (1999) 0.07
    0.071032375 = sum of:
      0.043020643 = product of:
        0.12906192 = sum of:
          0.12906192 = weight(_text_:objects in 2654) [ClassicSimilarity], result of:
            0.12906192 = score(doc=2654,freq=2.0), product of:
              0.31396845 = queryWeight, product of:
                5.315071 = idf(docFreq=590, maxDocs=44218)
                0.059071355 = queryNorm
              0.41106653 = fieldWeight in 2654, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.315071 = idf(docFreq=590, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2654)
        0.33333334 = coord(1/3)
      0.028011736 = product of:
        0.05602347 = sum of:
          0.05602347 = weight(_text_:22 in 2654) [ClassicSimilarity], result of:
            0.05602347 = score(doc=2654,freq=2.0), product of:
              0.20685782 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.059071355 = queryNorm
              0.2708308 = fieldWeight in 2654, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2654)
        0.5 = coord(1/2)
    
    Abstract
    Faceted Knowledge Representation provides a formalism for implementing knowledge systems. The basic notions of faceted knowledge representation are "unit", "relation", "facet" and "interpretation". Units are atomic elements and can be abstract elements or refer to external objects in an application. Relations are sequences or matrices of 0 and 1's (binary matrices). Facets are relational structures that combine units and relations. Each facet represents an aspect or viewpoint of a knowledge system. Interpretations are mappings that can be used to translate between different representations. This paper introduces the basic notions of faceted knowledge representation. The formalism is applied here to an abstract modeling of a faceted thesaurus as used in information retrieval.
    Date
    22. 1.2016 17:30:31
  6. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.06
    0.06337211 = product of:
      0.12674423 = sum of:
        0.12674423 = product of:
          0.25348845 = sum of:
            0.25348845 = weight(_text_:500 in 2434) [ClassicSimilarity], result of:
              0.25348845 = score(doc=2434,freq=6.0), product of:
                0.36112627 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.059071355 = queryNorm
                0.7019385 = fieldWeight in 2434, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert, berichtet Technology Review in seiner Online-Ausgabe. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbstständig ermittelt.""
    Source
    http://www.heise.de/newsticker/Semantische-Suche-ueber-500-Millionen-Web-Dokumente--/meldung/140630
  7. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.06
    0.06254731 = product of:
      0.12509462 = sum of:
        0.12509462 = product of:
          0.37528387 = sum of:
            0.37528387 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.37528387 = score(doc=230,freq=2.0), product of:
                0.5008076 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.059071355 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  8. Bertelsmann Lexikon Geschichte (1996) 0.06
    0.060979843 = product of:
      0.12195969 = sum of:
        0.12195969 = product of:
          0.24391937 = sum of:
            0.24391937 = weight(_text_:500 in 5984) [ClassicSimilarity], result of:
              0.24391937 = score(doc=5984,freq=2.0), product of:
                0.36112627 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.059071355 = queryNorm
                0.67544067 = fieldWeight in 5984, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5984)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    10.000 Stichwörter von A-Z, Erläuterungen wichtiger Sachbegriffe, Darstellungen geschichtlicher Ereignisse und Abläufe, Personenlexikon, Länderlexikon; 50 Kurzessays zu Schwerpunktthemen; Weltchronik mit über 3.500 Einträgen; 500 Fotos, 100 Karten, 100 Grafiken und Tabellen; 17 vertonte Diashows; 1 Stunde Ton- u. Videodokumente
  9. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.06
    0.060979843 = product of:
      0.12195969 = sum of:
        0.12195969 = product of:
          0.24391937 = sum of:
            0.24391937 = weight(_text_:500 in 1159) [ClassicSimilarity], result of:
              0.24391937 = score(doc=1159,freq=2.0), product of:
                0.36112627 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.059071355 = queryNorm
                0.67544067 = fieldWeight in 1159, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1159)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Unter: http://www.inf.uni-konstanz.de/~griesbau/texte.html elektronisch als Volltext (PDF 500 KB), Präsentation (PDF 460 KB)
  10. Multimedia-Enzyklopädie 2004 : Das interaktive Nachschlagewerk (2003) 0.04
    0.04268589 = product of:
      0.08537178 = sum of:
        0.08537178 = product of:
          0.17074355 = sum of:
            0.17074355 = weight(_text_:500 in 2053) [ClassicSimilarity], result of:
              0.17074355 = score(doc=2053,freq=2.0), product of:
                0.36112627 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.059071355 = queryNorm
                0.47280845 = fieldWeight in 2053, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2053)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    60.000 Stichwörter; Mehr als 11.000 Bilder; 40 Stunden Videos und Sound; Über 80.000 Querverweise; 6.000 Links ins Internet. - Universal-Lexikon; Personen-Lexikon mit über 6.000 Lebensbeschreibungen; Länder-Lexikon; Tier-Lexikon mit 1.000 Tierportraits; Medizin-Lexikon; Olympia-Lexikon; Computer-Lexikon; Börsen-Lexikon; Englisches Wörterbuch mit über 40.000 Stichwörtern; Fremwörter-Lexikon; Virtueller Konzertsaal mit rund 20 Stunden klassischer Musik; Internationale Gemöldegalerie mit 500 Meisterwerken; Hörbibliothek mit 2 Stunden ausgewählter Literatur; Tondokumente mit 40 Minuten Zeitgeschichte; Multimedia-Quiz mit über 2.000 Fragen und Antworten; Chronik als Zeitleiste zu 10.000 Jahren Weltgeschichte; Referate-Manager; Kalendarium; große Formelsammlung
  11. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.04
    0.03909207 = product of:
      0.07818414 = sum of:
        0.07818414 = product of:
          0.23455243 = sum of:
            0.23455243 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.23455243 = score(doc=4388,freq=2.0), product of:
                0.5008076 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.059071355 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  12. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.04
    0.03909207 = product of:
      0.07818414 = sum of:
        0.07818414 = product of:
          0.23455243 = sum of:
            0.23455243 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.23455243 = score(doc=5669,freq=2.0), product of:
                0.5008076 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.059071355 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  13. Rauber, A.: Digital preservation in data-driven science : on the importance of process capture, preservation and validation (2012) 0.04
    0.03687484 = product of:
      0.07374968 = sum of:
        0.07374968 = product of:
          0.22124901 = sum of:
            0.22124901 = weight(_text_:objects in 469) [ClassicSimilarity], result of:
              0.22124901 = score(doc=469,freq=8.0), product of:
                0.31396845 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.059071355 = queryNorm
                0.7046855 = fieldWeight in 469, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.046875 = fieldNorm(doc=469)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Current digital preservation is strongly biased towards data objects: digital files of document-style objects, or encapsulated and largely self-contained objects. To provide authenticity and provenance information, comprehensive metadata models are deployed to document information on an object's context. Yet, we claim that simply documenting an objects context may not be sufficient to ensure proper provenance and to fulfill the stated preservation goals. Specifically in e-Science and business settings, capturing, documenting and preserving entire processes may be necessary to meet the preservation goals. We thus present an approach for capturing, documenting and preserving processes, and means to assess their authenticity upon re-execution. We will discuss options as well as limitations and open challenges to achieve sound preservation, speci?cally within scientific processes.
  14. Information als Rohstoff für Innovation : Programm der Bundesregierung 1996-2000 (1996) 0.03
    0.032013413 = product of:
      0.064026825 = sum of:
        0.064026825 = product of:
          0.12805365 = sum of:
            0.12805365 = weight(_text_:22 in 5449) [ClassicSimilarity], result of:
              0.12805365 = score(doc=5449,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.61904186 = fieldWeight in 5449, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5449)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.1997 19:26:34
  15. Ask me[@sk.me]: your global information guide : der Wegweiser durch die Informationswelten (1996) 0.03
    0.032013413 = product of:
      0.064026825 = sum of:
        0.064026825 = product of:
          0.12805365 = sum of:
            0.12805365 = weight(_text_:22 in 5837) [ClassicSimilarity], result of:
              0.12805365 = score(doc=5837,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.61904186 = fieldWeight in 5837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5837)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    30.11.1996 13:22:37
  16. Kosmos Weltatlas 2000 : Der Kompass für das 21. Jahrhundert. Inklusive Welt-Routenplaner (1999) 0.03
    0.032013413 = product of:
      0.064026825 = sum of:
        0.064026825 = product of:
          0.12805365 = sum of:
            0.12805365 = weight(_text_:22 in 4085) [ClassicSimilarity], result of:
              0.12805365 = score(doc=4085,freq=2.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.61904186 = fieldWeight in 4085, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4085)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    7.11.1999 18:22:39
  17. Talbot, D.: Durchblick im Infodschungel (2009) 0.03
    0.031686056 = product of:
      0.06337211 = sum of:
        0.06337211 = product of:
          0.12674423 = sum of:
            0.12674423 = weight(_text_:500 in 2865) [ClassicSimilarity], result of:
              0.12674423 = score(doc=2865,freq=6.0), product of:
                0.36112627 = queryWeight, product of:
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.059071355 = queryNorm
                0.35096925 = fieldWeight in 2865, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.113391 = idf(docFreq=265, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2865)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.
    Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
    Footnote
    Vgl. auch: http://www.heise.de/newsticker/Semantische-Suche-ueber-500-Millionen-Web-Dokumente--/meldung/140630.
  18. Mitchell, J.S.: DDC 22 : an introduction (2003) 0.03
    0.031318072 = product of:
      0.062636144 = sum of:
        0.062636144 = product of:
          0.12527229 = sum of:
            0.12527229 = weight(_text_:22 in 1936) [ClassicSimilarity], result of:
              0.12527229 = score(doc=1936,freq=10.0), product of:
                0.20685782 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.059071355 = queryNorm
                0.6055961 = fieldWeight in 1936, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1936)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dewey Decimal Classification and Relative Index, Edition 22 (DDC 22) will be issued simultaneously in print and web versions in July 2003. The new edition is the first full print update to the Dewey Decimal Classification system in seven years-it includes several significant updates and many new numbers and topics. DDC 22 also features some fundamental structural changes that have been introduced with the goals of promoting classifier efficiency and improving the DDC for use in a variety of applications in the web environment. Most importantly, the content of the new edition has been shaped by the needs and recommendations of Dewey users around the world. The worldwide user community has an important role in shaping the future of the DDC.
    Object
    DDC-22
  19. Faceted classification of information (o.J.) 0.03
    0.030729031 = product of:
      0.061458062 = sum of:
        0.061458062 = product of:
          0.18437418 = sum of:
            0.18437418 = weight(_text_:objects in 2653) [ClassicSimilarity], result of:
              0.18437418 = score(doc=2653,freq=2.0), product of:
                0.31396845 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.059071355 = queryNorm
                0.58723795 = fieldWeight in 2653, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2653)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    An explanation of faceted classification meant for people working in knowledge management. An example given for a high-technology company has the fundamental categories Products, Applications, Organizations, People, Domain objects ("technologies applied in the marketplace in which the organization participates"), Events (i.e. time), and Publications.
  20. Koster, L.: Persistent identifiers for heritage objects (2020) 0.03
    0.030729031 = product of:
      0.061458062 = sum of:
        0.061458062 = product of:
          0.18437418 = sum of:
            0.18437418 = weight(_text_:objects in 5718) [ClassicSimilarity], result of:
              0.18437418 = score(doc=5718,freq=8.0), product of:
                0.31396845 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.059071355 = queryNorm
                0.58723795 = fieldWeight in 5718, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5718)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Persistent identifiers (PID's) are essential for getting access and referring to library, archive and museum (LAM) collection objects in a sustainable and unambiguous way, both internally and externally. Heritage institutions need a universal policy for the use of PID's in order to have an efficient digital infrastructure at their disposal and to achieve optimal interoperability, leading to open data, open collections and efficient resource management. Here the discussion is limited to PID's that institutions can assign to objects they own or administer themselves. PID's for people, subjects etc. can be used by heritage institutions, but are generally managed by other parties. The first part of this article consists of a general theoretical description of persistent identifiers. First of all, I discuss the questions of what persistent identifiers are and what they are not, and what is needed to administer and use them. The most commonly used existing PID systems are briefly characterized. Then I discuss the types of objects PID's can be assigned to. This section concludes with an overview of the requirements that apply if PIDs should also be used for linked data. The second part examines current infrastructural practices, and existing PID systems and their advantages and shortcomings. Based on these practical issues and the pros and cons of existing PID systems a list of requirements for PID systems is presented which is used to address a number of practical considerations. This section concludes with a number of recommendations.

Years

Languages

  • e 125
  • d 91
  • el 2
  • a 1
  • f 1
  • nl 1
  • More… Less…

Types

  • a 113
  • i 13
  • m 5
  • s 5
  • r 3
  • b 2
  • n 1
  • x 1
  • More… Less…