Search (125 results, page 1 of 7)

  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.35
    0.34722906 = product of:
      0.6944581 = sum of:
        0.09920831 = product of:
          0.29762492 = sum of:
            0.29762492 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.29762492 = score(doc=1826,freq=2.0), product of:
                0.3177388 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03747799 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.29762492 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.29762492 = score(doc=1826,freq=2.0), product of:
            0.3177388 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03747799 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.29762492 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.29762492 = score(doc=1826,freq=2.0), product of:
            0.3177388 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03747799 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.5 = coord(3/6)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.17
    0.17361453 = product of:
      0.34722906 = sum of:
        0.049604155 = product of:
          0.14881246 = sum of:
            0.14881246 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.14881246 = score(doc=4388,freq=2.0), product of:
                0.3177388 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03747799 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.14881246 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.14881246 = score(doc=4388,freq=2.0), product of:
            0.3177388 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03747799 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.14881246 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.14881246 = score(doc=4388,freq=2.0), product of:
            0.3177388 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03747799 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(3/6)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Rötzer, F.: Bindestriche in Titeln von Artikeln schaden der wissenschaftlichen Reputation (2019) 0.04
    0.037682008 = product of:
      0.11304602 = sum of:
        0.102798335 = weight(_text_:ranking in 5697) [ClassicSimilarity], result of:
          0.102798335 = score(doc=5697,freq=4.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.5070964 = fieldWeight in 5697, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=5697)
        0.010247685 = product of:
          0.030743055 = sum of:
            0.030743055 = weight(_text_:29 in 5697) [ClassicSimilarity], result of:
              0.030743055 = score(doc=5697,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23319192 = fieldWeight in 5697, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5697)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Wissenschaftler wollen herausgefunden haben, dass das wichtige Ranking nach Zitierhäufigkeit und dem Journal Impact Factor fehlerhaft ist. Man sollte ja denken, dass Programme, seien sie nun KI-gestützt oder nicht, vorurteilslos nach bestimmten Kriterien etwa ein Ranking erstellen können. Aber es kommen immer wieder unbedachte Einflüsse ins Spiel, die lange Zeit unbemerkt bleiben können. Bei KI-Programmen ist in letzter Zeit klar geworden, dass die Datenauswahl eine verzerrende Rolle spielen kann, die zu seltsamen Ergebnissen führt.
    Date
    29. 6.2019 17:46:17
  4. Gillitzer, B.: Yewno (2017) 0.03
    0.027219145 = product of:
      0.08165743 = sum of:
        0.0748871 = weight(_text_:suchmaschine in 3447) [ClassicSimilarity], result of:
          0.0748871 = score(doc=3447,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.3533909 = fieldWeight in 3447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.0067703333 = product of:
          0.020311 = sum of:
            0.020311 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.020311 = score(doc=3447,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  5. Hummingbird Neuer Suchalgorithmus bei Google (2013) 0.03
    0.026476588 = product of:
      0.15885952 = sum of:
        0.15885952 = weight(_text_:suchmaschine in 2520) [ClassicSimilarity], result of:
          0.15885952 = score(doc=2520,freq=8.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.7496553 = fieldWeight in 2520, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=2520)
      0.16666667 = coord(1/6)
    
    Abstract
    Google hat mit "Hummingbird" einen neuen Suchalgorithmus entwickelt und bereits eingeführt. Dabei handelt es sich laut Google um eine der größten Veränderungen der Suchmaschine, die rund 90 Prozent aller Suchanfragen betrifft. Im Rahmen einer kleinen Veranstaltung zum 15. Geburtstag der Suchmaschine hat Google in die Garage geladen, in der das Unternehmen gegründet wurde. Dabei enthüllte Google eine der bisher größten Veränderungen an der Suchmaschine: Ohne dass Nutzer etwas davon mitbekamen, hat Google vor rund einem Monat seinen Suchalgorithmus ausgetauscht. Der neue Suchalgorithmus mit Codenamen "Hummingbird" soll es Google ermöglichen, Suchanfragen und Beziehungen zwischen Dingen besser zu verstehen. Das soll die Suchmaschine in die Lage versetzen, komplexere Suchanfragen zu verarbeiten, die von Nutzern immer häufiger gestellt werden - auch, weil immer mehr Nutzer Google auf dem Smartphone per Spracheingabe nutzen. Früher versuchte Google lediglich, die Schlüsselwörter in einer Suchanfrage in Webseiten wiederzufinden. Doch seit geraumer Zeit arbeitet Google daran, die Suchanfragen besser zu verstehen, um bessere Suchergebnisse anzuzeigen.
  6. Haake, E.; Blenkle, M.; Ellis, R.; Zillmann, H.: Nur die ersten Drei zählen! : Optimierung der Rankingverfahren über Popularitätsfaktoren bei der Elektronischen Bibliothek Bremen (E-LIB) (2015) 0.02
    0.017133057 = product of:
      0.102798335 = sum of:
        0.102798335 = weight(_text_:ranking in 2150) [ClassicSimilarity], result of:
          0.102798335 = score(doc=2150,freq=4.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.5070964 = fieldWeight in 2150, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
      0.16666667 = coord(1/6)
    
    Abstract
    Seit Einführung der neuen Discovery-Kataloge stehen unseren Nutzerinnen und Nutzern zusätzlich Millionen von Dokumenten neben dem lokalen Buchbestand zur Verfügung. Diese Zielgruppe muss in die Lage versetzt werden, die für sie relevanten Titel einfach und sicher zu finden. Die Qualität von Empfehlungsfunktionen und besonders der Relevanz-Ranking-Methoden sind daher für den Erfolg eines Discovery-Systems besonders wichtig. Das Ranking bibliothekarischer Suchmaschinentechnik ignoriert bisher das Feedback durch Nutzerinnen und Nutzer. Die Staats- und Universitätsbibliothek Bremen (SuUB) setzt mit dem in Bremen entwickelten Discovery-System "E-LIB" seit Sommer 2011 zusätzlich auf eine Modifikation des Treffer-Rankings über Popularitätsfaktoren der Medien wie Klickstatistik, Auflagen- und Exemplarzahl. Die maßgeschneiderte Entwicklung eines eigenen Bibliothekskataloges, den die SuUB seit 2004 mit dem Discovery-System "E-LIB" in Bremen betreibt, erlaubt die schnelle und flexible Anpassung von Retrievalfunktionen an die Bedürfnisse der Nutzerinnen und Nutzer vor Ort.
  7. Laaff, M.: Googles genialer Urahn (2011) 0.02
    0.017011967 = product of:
      0.051035896 = sum of:
        0.046804436 = weight(_text_:suchmaschine in 4610) [ClassicSimilarity], result of:
          0.046804436 = score(doc=4610,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.22086932 = fieldWeight in 4610, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4610)
        0.0042314585 = product of:
          0.012694376 = sum of:
            0.012694376 = weight(_text_:22 in 4610) [ClassicSimilarity], result of:
              0.012694376 = score(doc=4610,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.09672529 = fieldWeight in 4610, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4610)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Er plante ein mechanisches Gehirn und kabellose Kommunikation: Der belgische Bibliothekar Paul Otlet entwarf Anfang des 20. Jahrhunderts die erste Suchmaschine der Welt - lange vor Computern und Internet. Warum gerieten seine revolutionären Ideen in Vergessenheit?
    Content
    "Die erste Suchmaschine der Welt ist aus Holz und Papier gebaut. Mannshohe, dunkelbraune Schränke reihen sich aneinander, darin Zettelkästen mit Karteikarten. "Sechzehn Millionen Karteikarten", sagt Jaques Gillen und legt die Hand auf den Griff eines Schrankes. Gillen ist Archivar im Mundaneum - der Institution, die diesen gigantischen Katalog in den zwanziger Jahren des vergangenen Jahrhunderts betrieb. Anfragen gingen per Brief oder Telegramm in Brüssel ein, bis zu 1500 im Jahr. Antworten wurden per Hand herausgesucht, das konnte Wochen dauern. Ein Papier-Google, entwickelt Jahrzehnte vor dem Internet, ohne Computer. Erfinder des Mundaneums war der belgische Bibliothekar Paul Otlet. Der gelernte Jurist aus bürgerlichem Hause wollte das Wissen der Welt kartografieren und in Holzschränken aufbewahren. Seine Vision: Das Mundaneum sollte alle Bücher erfassen, die jemals erschienen sind - und sie über ein eigens entwickeltes Archivsystem miteinander verbinden. Archivar Gillen fischt eine Karteikarte aus einem Kasten. Aus dem Zahlenwirrwarr darauf kann er dutzende Informationen über das Buch, auf das verwiesen wird, ablesen. Mit seinem Archivsystem, darin sind sich viele Forscher heute einig, hat Otlet praktisch schon um die Jahrhundertwende den Hypertext erfunden - das Netz von Verknüpfungen, die uns heute durch das Internet navigieren. "Man könnte Otlet als einen Vordenker des Internets bezeichnen", sagt Gillen und steckt die Karteikarte zurück.
    Date
    24.10.2008 14:19:22
  8. Weigert, M.: Erkunden statt suchen : HORIZOBU (2011) 0.02
    0.015444675 = product of:
      0.09266805 = sum of:
        0.09266805 = weight(_text_:suchmaschine in 4442) [ClassicSimilarity], result of:
          0.09266805 = score(doc=4442,freq=8.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.43729892 = fieldWeight in 4442, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4442)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Schweizer Startup horizobu hat eine Suchmaschine lanciert, die sich vor allem für tiefergehende Recherchen eignen und bei der Erkundung von Themengebieten helfen soll.
    Content
    "In Deutschland werden über 90 Prozent aller Suchen über Google abgewickelt. In der Schweiz sieht es ähnlich aus. Und während in den USA mit der Microsoft-Suchmaschine Bing immerhin ein ernstzunehmender Konkurrent existiert, liegt Googles Marktanteil auch dort bei immerhin knapp 65 Prozent. Und trotz oder gerade wegen dieser eindeutigen Dominanz eines Unternehmens gibt es immer mal wieder Versuche, alternative Suchwerkzeuge zu etablieren. Manchmal - wie im Falle von Cuil - geht dies ordentlich daneben. Und ab und an lässt sich so zumindest ein kleiner Achtungserfolg erzielen, wie Blekko es bewiesen hat. horizobu heißt ein neuer Protagonist im Bereich der alternativen Suchmaschinen, der heute im Beta-Stadium sein Onlinedebüt feiert. Das Startup aus Zürich versucht bereits in der Eigendefinition, Vergleiche mit Google zu vermeiden, in dem es sich explizit nicht als Suchmaschine sondern als "Exploration Engine" bezeichnet. Im Vordergrund steht bei horizobu demnach nicht das Finden von Gesuchtem, sondern das Erkunden von Websites und Kontext zu einem bestimmten Thema.
    horizobu richtet sich laut Mitgründer Werner Hartmann vor allem an Personen, die zu einem Thema eine vertiefende Recherche durchführen wollen, also Journalisten, Wissenschaftler, Geschäftsleute oder Studenten. Für das Kinoprogramm von heute Abend oder die nächste Zugverbindung gebe es hingegen geeignetere Dienste. Hartmann und sein Kompagnon Sam Zürcher haben die Entwicklung von horizobu aus eigenen Mittel finanziert und bezeichnen es in seiner jetzigen Form als "Garagenprojekt". In der nächsten Phase wollen sie versuchen, interessierte Geldgeber zu finden, die so die Professionalisierung der Idee - also erweiterte Suchfunktionen, bessere Performance, länderspezifische Varianten usw. - unterstützen. Die Monetarisierung soll sowohl durch eine Werbevermarktung als auch eine Lizensierung der zugrundeliegenden Technologie realisiert werden. Allerdings wollen die zwei Jungunternehmer erst sehen, ob sich ihr Projekt am Markt etablieren kann. Diese Haltung ist nachvollziehbar. Denn angesichts der festen Verankerung von Google im Bewusstsein nahezu aller Internetnutzer erfordert es von jedem Anwender den bewussten Entschluss, zur Abwechslung über horizobu, Blekko, DuckDuckGo oder einen anderen Anbieter zu suchen. Und wenn dies dann nicht auf Anhieb perfekt funktioniert, ist die Wahrscheinlichkeit gering, dass sich User erneut dort blicken lassen. Die Marktchancen für horizobu stehen also eher ungünstig. Andererseits ziehe ich den Hut vor Gründern, die sich an das schwierige, weil stark von einem Anbieter dominierte Thema Suche heranwagen. Und als Nutzer kann man nur dann die Qualität einer Suchmaschine objektiv beurteilen, wenn das Vergleichen möglich ist. Allein das ist eine Daseinsberechtigung für alternative Ansätze."
  9. Söhler, M.: Schluss mit Schema F (2011) 0.02
    0.015286265 = product of:
      0.091717586 = sum of:
        0.091717586 = weight(_text_:suchmaschine in 4439) [ClassicSimilarity], result of:
          0.091717586 = score(doc=4439,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.4328137 = fieldWeight in 4439, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
      0.16666667 = coord(1/6)
    
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  10. mho: Google erweitert Suchfunktion um Informationsdatenbank (2012) 0.02
    0.015286265 = product of:
      0.091717586 = sum of:
        0.091717586 = weight(_text_:suchmaschine in 136) [ClassicSimilarity], result of:
          0.091717586 = score(doc=136,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.4328137 = fieldWeight in 136, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=136)
      0.16666667 = coord(1/6)
    
    Content
    "Google hat seine Suchmaschine um eine Datenbank erweitert, die die Suchergebnisse um Fakten zu verschiedensten Objekten und Personen ergänzt. Diese semantische Suchfunktion, die vorerst nur Nutzern in den USA zur Verfügung steht, soll Suchbegriffe inhaltlich erkennen und Zusammenhänge zu anderen Themen herstellen. Damit soll Google noch besser erkennen, wonach die Nutzer suchen und möglichst auch gleich weitere Fragen beantworten. In einem Blogeintrag [http://googleblog.blogspot.de/2012/05/introducing-knowledge-graph-things-not.html] erläutert Google-Manager Amit Singhal die neue Funktion, die unter der Bezeichnung "Knowledge Graph" [http://www.google.com/insidesearch/features/search/knowledge.html] firmiert und in einem Video [http://www.youtube.com/watch?v=mmQl6VGvX-c] vorgestellt wird. Dabei handele es sich um eine große Informationsdatenbank, die derzeit über 500 Millionen Objekte und mehr als 3,5 Milliarden Informationen über die Beziehungen zwischen ihnen enthalte. Darunter fänden sich Sehenswürdigkeiten, berühmte Personen, Städte, Sportmannschaften, Gebäude, Orte, Filme, Himmelsobjekte, Kunstwerke oder Ähnliches. Anhand der Suchanfragen und der Ergebnisse wird die Datenbank immer weiter verbessert, verspricht Google. Dank dieser Neuerung verspricht Google seinen Nutzern drei merkliche Verbesserungen. So könne die Suchmaschine nun besser erkennen, wonach genau gesucht werde, beispielsweise das Gebäude Taj Mahal oder der US-Musiker mit gleichem Namen. Weiterhin könne Google durch den Knowledge Graph wichtige Inhalte besser zusammenfassen, beispielsweise die Lebensdaten einer berühmten Person und ihre Leistungen. Auch bereits getätigte Suchen andere Nutzer könnten künftige Suchergebnisse dadurch beeinflussen. So sei für für Suchende etwa von Interesse, welche Bücher Charles Dickens geschrieben habe. Bei dem Architekten Frank Lloyd Wright sei jedoch weniger die Literatur interessant, als die von ihm gestalteten Gebäude.
    Zu guter Letzt kündigt Google seinen Nutzern dank der neuen Informationsdatenbank überraschende Erkenntnisse an: Verantwortlich dafür seien Verbindungen, an die Nutzer nicht gedacht hätten. Beispielsweise würde die Anzeige der Namen der engsten Verwandten von Matt Groening ganz neue Einblicke in die Inspiration für seine Simpsons liefern. Außerdem könne Google nun öfter bereits die nächste Frage beantworten, die ein Nutzer der Suchmaschine stellen würde. Eine Suche nach Tom Cruise könne dank des Knowledge Graph beispielsweise jede dritte der danach gestellten Fragen bereits beantworten. Die neue Funktion wurde auch für die Suche auf Smartphones und Tablets angepasst, wie Junyoung Lee in einem eigenen Blogeintrag [http://insidesearch.blogspot.de/2012/05/knowledge-graph-for-mobile-and-tablet.html] erläutert. Integriert werde sie hier in die Browsersuche und in die Apps, sowohl auf Android als auch iOS. Eingeführt wird die neue Funktion derzeit schrittweise für englischsprachige Nutzer in den USA, wie Amit Singhal mitteilt. Zu anderen Sprachen und Ländern macht er keine Angabe."
  11. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.01
    0.014800863 = product of:
      0.08880518 = sum of:
        0.08880518 = weight(_text_:suchmaschine in 2133) [ClassicSimilarity], result of:
          0.08880518 = score(doc=2133,freq=10.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.41907007 = fieldWeight in 2133, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
      0.16666667 = coord(1/6)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
  12. Bedathur, S.; Narang, A.: Mind your language : effects of spoken query formulation on retrieval effectiveness (2013) 0.01
    0.014134051 = product of:
      0.084804304 = sum of:
        0.084804304 = weight(_text_:ranking in 1150) [ClassicSimilarity], result of:
          0.084804304 = score(doc=1150,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.4183332 = fieldWeight in 1150, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1150)
      0.16666667 = coord(1/6)
    
    Abstract
    Voice search is becoming a popular mode for interacting with search engines. As a result, research has gone into building better voice transcription engines, interfaces, and search engines that better handle inherent verbosity of queries. However, when one considers its use by non- native speakers of English, another aspect that becomes important is the formulation of the query by users. In this paper, we present the results of a preliminary study that we conducted with non-native English speakers who formulate queries for given retrieval tasks. Our results show that the current search engines are sensitive in their rankings to the query formulation, and thus highlights the need for developing more robust ranking methods.
  13. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.01
    0.0133754825 = product of:
      0.08025289 = sum of:
        0.08025289 = weight(_text_:suchmaschine in 4440) [ClassicSimilarity], result of:
          0.08025289 = score(doc=4440,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.378712 = fieldWeight in 4440, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
      0.16666667 = coord(1/6)
    
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
    - "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
  14. Wolfram Language erkennt Bilder (2015) 0.01
    0.013238294 = product of:
      0.07942976 = sum of:
        0.07942976 = weight(_text_:suchmaschine in 1872) [ClassicSimilarity], result of:
          0.07942976 = score(doc=1872,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.37482765 = fieldWeight in 1872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=1872)
      0.16666667 = coord(1/6)
    
    Abstract
    Wolfram Research hat seine Cloud-basierte Programmiersprache Wolfram Language um eine Funktion zur Bilderkennung erweitert. Der Hersteller des Computeralgebrasystems Mathematica und Betreiber der Wissens-Suchmaschine Wolfram Alpha hat seinem System die Erkennung von Bildern beigebracht. Mit der Funktion ImageIdentify bekommt man in Wolfram Language jetzt zu einem Bild eine symbolische Beschreibung des Inhalts, die sich in der Sprache danach sogar weiterverarbeiten lässt. Als Demo dieser Funktion dient die Website The Wolfram Language Image Identification Project: Dort kann man ein beliebiges Bild hochladen und sich das Ergebnis anschauen. Die Website speichert einen Thumbnail des hochgeladenen Bildes, sodass man einen Link zu der Ergebnisseite weitergeben kann. Wie so oft bei künstlicher Intelligenz sind die Ergebnisse manchmal lustig daneben, oft aber auch überraschend gut. Die Funktion arbeitet mit einem neuronalen Netz, das mit einigen -zig Millionen Bildern trainiert wurde und etwa 10.000 Objekte identifizieren kann.
  15. Poley, C.: LIVIVO: Neue Herausforderungen an das ZB MED-Suchportal für Lebenswissenschaften (2016) 0.01
    0.013238294 = product of:
      0.07942976 = sum of:
        0.07942976 = weight(_text_:suchmaschine in 2173) [ClassicSimilarity], result of:
          0.07942976 = score(doc=2173,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.37482765 = fieldWeight in 2173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=2173)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Deutsche Zentralbibliothek für Medizin (ZB MED) hat als Anbieterin von Suchportalen in den Lebenswissenschaften eine lange Tradition. Mit LIVIVO steht seit 2015 ein neues Produkt zur Verfügung, das erstmals das gesamte Fächerspektrum von ZB MED abdeckt: Medizin, Gesundheit, Ernährungs-, Umwelt- und Agrarwissenschaften. In der Anfangsphase von LIVIVO stand der Aufbau eines modernen Fachportals mit einer neuen Suchmaschine im Vordergrund, das die Funktionalitäten der Vorgängerportale miteinander vereinigt. Dabei wurde eine neue Weboberfläche entwickelt, die sich durch eine hohe Benutzerfreundlichkeit und ein responsives Webdesign auszeichnet. Das große Potential für die Entwicklung von LIVIVO liegt im Bereitstellen von Suchdiensten basierend auf den mehr als 55 Millionen Metadatensätzen. Aktuelle Arbeiten von ZB MED beschäftigen sich nun damit, automatische Schnittstellen für Suchservices anzubieten. Gleichzeitig wird mit dem Aufbau des ZB MED-Knowledge-Environment eine unverzichtbare Datenbasis für Forschungsarbeiten an ZB MED geschaffen. Dieser Aufsatz wird auf die aktuellen Herausforderungen eines wissenschaftlichen Portals am Beispiel von LIVIVO eingehen, Lösungsansätze skizzieren und davon ausgehend die Entwicklungslinien vorzeichnen.
  16. Wolf, S.: Neuer Meilenstein für BASE : 90 Millionen Dokumente (2016) 0.01
    0.013238294 = product of:
      0.07942976 = sum of:
        0.07942976 = weight(_text_:suchmaschine in 2872) [ClassicSimilarity], result of:
          0.07942976 = score(doc=2872,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.37482765 = fieldWeight in 2872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=2872)
      0.16666667 = coord(1/6)
    
    Abstract
    BASE (https://www.base-search.net) ermöglicht seit Anfang April eine Suche nach über 90 Millionen Dokumenten, deren Metadaten von über 4.200 Dokumentenservern (Repositories) wissenschaftlicher Institutionen weltweit bereit gestellt werden. Damit ist BASE nach Google Scholar die größte Suchmaschine für wissenschaftliche, frei im Internet verfügbare Dokumente. Für über 30 Mio. Dokumente, die in BASE zu finden sind, können wir aufgrund von Informationen in den Metadaten einen Open-Access-Status ausweisen, insgesamt schätzen wir den Open-Access-Anteil derzeit auf 60%. Über ein Boosting-Verfahren werden Nachweise zu Open-Access-Dokumenten bevorzugt angezeigt, ebenso ist ein gezieltes Suchen unter Berücksichtigung verschiedener Lizenz- und Rechteangaben möglich. Der BASE-Index steht über verschiedene Schnittstellen zahlreichen anderen kommerziellen und nicht-kommerziellen Discovery-Systemen, Suchmaschinen, Datenbankanbietern, Fachbibliotheken und Entwicklern zur Nachnutzung zur Verfügung. BASE trägt damit wesentlich zur Nutzung von Inhalten auf Dokumentservern bei. Weitere Informationen: https://www.base-search.net/
  17. Mao, J.; Xu, W.; Yang, Y.; Wang, J.; Yuille, A.L.: Explain images with multimodal recurrent neural networks (2014) 0.01
    0.0121149 = product of:
      0.0726894 = sum of:
        0.0726894 = weight(_text_:ranking in 1557) [ClassicSimilarity], result of:
          0.0726894 = score(doc=1557,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 1557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=1557)
      0.16666667 = coord(1/6)
    
    Abstract
    In this paper, we present a multimodal Recurrent Neural Network (m-RNN) model for generating novel sentence descriptions to explain the content of images. It directly models the probability distribution of generating a word given previous words and the image. Image descriptions are generated by sampling from this distribution. The model consists of two sub-networks: a deep recurrent neural network for sentences and a deep convolutional network for images. These two sub-networks interact with each other in a multimodal layer to form the whole m-RNN model. The effectiveness of our model is validated on three benchmark datasets (IAPR TC-12 [8], Flickr 8K [28], and Flickr 30K [13]). Our model outperforms the state-of-the-art generative method. In addition, the m-RNN model can be applied to retrieval tasks for retrieving images or sentences, and achieves significant performance improvement over the state-of-the-art methods which directly optimize the ranking objective function for retrieval.
  18. Karpathy, A.; Fei-Fei, L.: Deep visual-semantic alignments for generating image descriptions (2015) 0.01
    0.0121149 = product of:
      0.0726894 = sum of:
        0.0726894 = weight(_text_:ranking in 1868) [ClassicSimilarity], result of:
          0.0726894 = score(doc=1868,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 1868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=1868)
      0.16666667 = coord(1/6)
    
    Abstract
    We present a model that generates free-form natural language descriptions of image regions. Our model leverages datasets of images and their sentence descriptions to learn about the inter-modal correspondences between text and visual data. Our approach is based on a novel combination of Convolutional Neural Networks over image regions, bidirectional Recurrent Neural Networks over sentences, and a structured objective that aligns the two modalities through a multimodal embedding. We then describe a Recurrent Neural Network architecture that uses the inferred alignments to learn to generate novel descriptions of image regions. We demonstrate the effectiveness of our alignment model with ranking experiments on Flickr8K, Flickr30K and COCO datasets, where we substantially improve on the state of the art. We then show that the sentences created by our generative model outperform retrieval baselines on the three aforementioned datasets and a new dataset of region-level annotations.
  19. Manguinhas, H.; Freire, N.; Machado, J.; Borbinha, J.: Supporting multilingual bibliographic resource discovery with Functional Requirements for Bibliographic Records (2012) 0.01
    0.010095751 = product of:
      0.0605745 = sum of:
        0.0605745 = weight(_text_:ranking in 133) [ClassicSimilarity], result of:
          0.0605745 = score(doc=133,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.29880944 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.16666667 = coord(1/6)
    
    Abstract
    This paper describes an experiment exploring the hypothesis that innovative application of the Functional Require-ments for Bibliographic Records (FRBR) principles can complement traditional bibliographic resource discovery systems in order to improve the user experience. A specialized service was implemented that, when given a plain list of results from a regular online catalogue, was able to process, enrich and present that list in a more relevant way for the user. This service pre-processes the records of a traditional online catalogue in order to build a semantic structure following the FRBR model. The service also explores web search features that have been revolutionizing the way users conceptualize resource discovery, such as relevance ranking and metasearching. This work was developed in the context of the TELPlus project. We processed nearly one hundred thousand bibliographic and authority records, in multiple languages, and originating from twelve European na-tional libraries. This paper describes the architecture of the service and the main challenges faced, especially concerning the extraction and linking of the relevant FRBR entities from the bibliographic metadata produced by the libraries. The service was evaluated by end users, who filled out a questionnaire after using a traditional online catalogue and the new service, both with the same bibliographic collection. The analysis of the results supports the hypothesis that FRBR can be implemented for re-source discovery in a non-intrusive way, reusing the data of any existing traditional bibliographic system.
  20. Schürmann, H.: Sacherschliessung nach RDA (2015) 0.01
    0.010095751 = product of:
      0.0605745 = sum of:
        0.0605745 = weight(_text_:ranking in 1831) [ClassicSimilarity], result of:
          0.0605745 = score(doc=1831,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.29880944 = fieldWeight in 1831, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1831)
      0.16666667 = coord(1/6)
    
    Abstract
    "Fazit: Die Sacherschliessung im Bibliothekskontext richtet sich nach dem Angebot und dem Zugang, den die Bibliothek bietet. Ein Regelwerk muss so gestaltet sein, dass die Bibliothek die Erschliessungstiefe selbst bestimmen kann. Im Datenaustausch macht dann die Übernahme von Fremddaten nur unter ähnlichen Bibliotheken Sinn. Metakataloge können keine sinnvollen Facetten anbieten, hier muss ein Relevanz-Ranking genügen. Dasselbe gilt für die Discovery Tools, in denen Quellen mit verschiedenen Erschliessungssystemen unter einer Oberfläche suchbar gemacht werden. In Kombination mit den Daten der Formalerschliessung sollen hingegen auch bei den Discovery Tools Filter so gestaltet sein, dass in spezifischen Beständen, die intellektuell sachlich erschlossen sind, ein Index der Schlagwörter als Themenfacetten angezeigt und genutzt werden kann. Die RDA wird dafür den Rahmen geben müssen."

Languages

  • d 84
  • e 37
  • a 1
  • el 1
  • More… Less…

Types

  • a 85
  • r 3
  • s 2
  • x 2
  • m 1
  • p 1
  • More… Less…