Search (168 results, page 1 of 9)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.25
    0.24816482 = product of:
      0.49632964 = sum of:
        0.032778047 = product of:
          0.16389023 = sum of:
            0.16389023 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.16389023 = score(doc=2514,freq=2.0), product of:
                0.29161027 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03439607 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.2 = coord(1/5)
        0.23177579 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23177579 = score(doc=2514,freq=4.0), product of:
            0.29161027 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03439607 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.23177579 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23177579 = score(doc=2514,freq=4.0), product of:
            0.29161027 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03439607 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.04
    0.044088095 = product of:
      0.13226429 = sum of:
        0.11362351 = weight(_text_:hochschule in 1770) [ClassicSimilarity], result of:
          0.11362351 = score(doc=1770,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.5403525 = fieldWeight in 1770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
        0.018640772 = product of:
          0.037281543 = sum of:
            0.037281543 = weight(_text_:22 in 1770) [ClassicSimilarity], result of:
              0.037281543 = score(doc=1770,freq=2.0), product of:
                0.12044918 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03439607 = queryNorm
                0.30952093 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 3.2008 14:04:11
    Footnote
    Überarbeitete Ausgabe der Diplomarbeit im Studiengang Öffentliche Bibliotheken bei der Fachhochschule Stuttgart, Hochschule für Bibliotheks- und Informationswesen.
  3. Hastik, C.; Schuster, A.; Knauerhase, A.: Wissenschaftliche Suchmaschinen : Usability Evaluation und Betrachtung des Suchverhaltens potentieller Nutzer (2009) 0.04
    0.038577083 = product of:
      0.11573125 = sum of:
        0.09942057 = weight(_text_:hochschule in 2768) [ClassicSimilarity], result of:
          0.09942057 = score(doc=2768,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.47280845 = fieldWeight in 2768, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2768)
        0.016310675 = product of:
          0.03262135 = sum of:
            0.03262135 = weight(_text_:22 in 2768) [ClassicSimilarity], result of:
              0.03262135 = score(doc=2768,freq=2.0), product of:
                0.12044918 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03439607 = queryNorm
                0.2708308 = fieldWeight in 2768, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2768)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Wissenschaftliche Suchmaschinen haben es nicht leicht in einer "Amazoogle" gestalteten Welt. Dabei ist nicht nur die Einfachheit der Benutzerschnittstelle d.h. die Umsetzung von Usability-Anforderungen entscheidend für den Erfolg, sondern ebenso die Qualität der Suchergebnisse. Im Rahmen des Masterprojektes "Wissenschaftliche Suchmaschinen" an der Hochschule Darmstadt werden benutzerspezifische Bedürfnisse, Anforderungen und Aspekte der Wahrnehmung in Relation zum individuellen Informationssuchverhalten aufgerollt und methodisch evaluiert. Es wird der Fragestellung nachgegangen, was die Informationssuche auszeichnet und welche Rolle die Informationskompetenz der Nutzer in diesem Rahmen spielt. Anschließend werden die Ergebnisse detailliert skizziert, analysiert und daraus Rückschlüsse auf die zielgruppenspezifischen Anforderungen und Bedürfnisse hinsichtlich der Gestaltung von wissenschaftlichen Suchmaschinen gezogen.
    Date
    23. 3.2009 14:49:22
  4. Schaat, S.: Von der automatisierten Manipulation zur Manipulation der Automatisierung (2019) 0.04
    0.0380316 = product of:
      0.1140948 = sum of:
        0.09545403 = weight(_text_:lernen in 4996) [ClassicSimilarity], result of:
          0.09545403 = score(doc=4996,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.49526796 = fieldWeight in 4996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0625 = fieldNorm(doc=4996)
        0.018640772 = product of:
          0.037281543 = sum of:
            0.037281543 = weight(_text_:22 in 4996) [ClassicSimilarity], result of:
              0.037281543 = score(doc=4996,freq=2.0), product of:
                0.12044918 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03439607 = queryNorm
                0.30952093 = fieldWeight in 4996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4996)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    "Wir kennen das bereits von Google, Facebook und Amazon: Unser Internet-Verhalten wird automatisch erfasst, damit uns angepasste Inhalte präsentiert werden können. Ob uns diese Inhalte gefallen oder nicht, melden wir direkt oder indirekt zurück (Kauf, Klick etc.). Durch diese Feedbackschleife lernen solche Systeme immer besser, was sie uns präsentieren müssen, um unsere Bedürfnisse anzusprechen, und wissen implizit dadurch auch immer besser, wie sie unsere Bedürfniserfüllung - zur Konsumtion - manipulieren können."
    Date
    19. 2.2019 17:22:00
  5. Talbot, D.: Durchblick im Infodschungel (2009) 0.03
    0.026134692 = product of:
      0.07840408 = sum of:
        0.03579526 = weight(_text_:lernen in 2865) [ClassicSimilarity], result of:
          0.03579526 = score(doc=2865,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.18572548 = fieldWeight in 2865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
        0.042608816 = weight(_text_:hochschule in 2865) [ClassicSimilarity], result of:
          0.042608816 = score(doc=2865,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.20263219 = fieldWeight in 2865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
      0.33333334 = coord(2/6)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.
    Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
  6. Zutter, S.: Alles dreht sich um die Suche : Information Online Konferenz in Sydney, Australien (2005) 0.02
    0.023769751 = product of:
      0.07130925 = sum of:
        0.05965877 = weight(_text_:lernen in 3423) [ClassicSimilarity], result of:
          0.05965877 = score(doc=3423,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.30954248 = fieldWeight in 3423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.011650482 = product of:
          0.023300964 = sum of:
            0.023300964 = weight(_text_:22 in 3423) [ClassicSimilarity], result of:
              0.023300964 = score(doc=3423,freq=2.0), product of:
                0.12044918 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03439607 = queryNorm
                0.19345059 = fieldWeight in 3423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit über 1100 Delegierten und 85 Ausstellern stellte die zwölfte Information Online auch 2005 wieder die im Raum Asien und Pazifik größte und renommierteste regionale Fachmesse für den Informationsbereich dar. Alle zwei Jahre veranstaltet der australische Informationsberufe-Verband ALIA in Sydney die Tagung mit Fachreferenten aus Australien, Asien, Europa und USA. An drei bis fünf Tagen kommen hier Bibliothekare und Informationsspezialisten aus Australien und Neuseeland, Indien, Malaysien, Amerika, und Europa zusammen, um sich anhand von Vorträgen, Workshops, einer Fachausstellung und reichlich Gelegenheiten für informelles Networking einen Überblick über den sich rasant entwickelnden Markt des elektronischen Informationsmanagement und der Informationsversorgung zu verschaffen. 60 Referenten und neun Hauptredner (Angela Abell, Kate Andrews, Liesle Capper, Peter Crowe, Prof. Brian Fitzgerald, David Hawking, Mary Lee Kennedy, Hemant Manohar, Joan Frye Williams) lieferten Forschungsergebnisse, Fallstudien, Fortschrifttsberichte und programmatische Thesen aus den Themenbereichen Informationsarchitektur, Online Archive, Content Management Systeme, Urheberrecht und WWW, Web Services für Bibliotheken und Informationsstellen, Benutzungsschemata für Web-Technologien, Schnittstellen, Datenpool, Bibliotheksautomation, Referenzservice online, Metadaten für Informationssysteme und für Organisationen, Wissenschaftliches Publizieren, Open Access, Knowledge Management und intellektuelles Kapital, Benutzerpsychologie, Online lernen, Berufsbild Informationsspezialist. Ein Drittel der Beiträge beschäftigte sich mit Fragen rund um Information beziehungsweise Knowledge Discovery Search, Search und nochmals Search. Dreht sich angesichts der kommerziellen Erfolge von Google und Konsorten denn alles nur noch um die Websuche?
    Date
    22. 5.2005 13:51:43
  7. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.02
    0.016738325 = product of:
      0.100429945 = sum of:
        0.100429945 = weight(_text_:hochschule in 1777) [ClassicSimilarity], result of:
          0.100429945 = score(doc=1777,freq=4.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.47760868 = fieldWeight in 1777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
      0.16666667 = coord(1/6)
    
    Footnote
    Diplomarbeit im Fach Inhaltliche Erschließung, Studiengang Informationsmanagement der FH Stuttgart - Hochschule für Bibliotheks- und Informationswesen
    Imprint
    Stuttgart : FH - Hochschule für Bibliotheks- und Informationswesen
  8. Krüger, K.: Suchmaschinen-Spamming : Vergleichend-kritische Analysen zur Wirkung kommerzieller Strategien der Website-Optimierung auf das Ranking in www-Suchmaschinen (2004) 0.02
    0.016570095 = product of:
      0.09942057 = sum of:
        0.09942057 = weight(_text_:hochschule in 3700) [ClassicSimilarity], result of:
          0.09942057 = score(doc=3700,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.47280845 = fieldWeight in 3700, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
      0.16666667 = coord(1/6)
    
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  9. Lewandowski, D.: Wie können sich Bibliotheken gegenüber Wissenschaftssuchmaschinen positionieren? (2007) 0.02
    0.015909005 = product of:
      0.09545403 = sum of:
        0.09545403 = weight(_text_:lernen in 5112) [ClassicSimilarity], result of:
          0.09545403 = score(doc=5112,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.49526796 = fieldWeight in 5112, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0625 = fieldNorm(doc=5112)
      0.16666667 = coord(1/6)
    
    Abstract
    Dieser Aufsatz beschreibt die Probleme bei der Erschließung des wissenschaftlichen Web (Academic Invisible Web), zeigt Beispiele kommerzieller Wissenschaftssuchmaschinen unter der Leitfrage, was Bibliotheken von diesen lernen können und stellt schließlich Vor- und Nachteile der Wissenschaftssuchmaschinen denen der bisherigen Bibliotheksangebote gegenüber. Daraus werden Empfehlungen abgeleitet, wie sich Bibliotheken mit umfassenden Suchlösungen gegenüber den Wissenschaftssuchmaschinen positionieren können.
  10. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.01
    0.014202939 = product of:
      0.08521763 = sum of:
        0.08521763 = weight(_text_:hochschule in 2434) [ClassicSimilarity], result of:
          0.08521763 = score(doc=2434,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.40526438 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
      0.16666667 = coord(1/6)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert, berichtet Technology Review in seiner Online-Ausgabe. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbstständig ermittelt.""
  11. Web-2.0-Dienste als Ergänzung zu algorithmischen Suchmaschinen (2008) 0.01
    0.014202939 = product of:
      0.08521763 = sum of:
        0.08521763 = weight(_text_:hochschule in 4323) [ClassicSimilarity], result of:
          0.08521763 = score(doc=4323,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.40526438 = fieldWeight in 4323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
      0.16666667 = coord(1/6)
    
    Issue
    Ergebnisse des Fachprojektes "Einbindung von Frage-Antwort-Diensten in die Web-Suche" am Department Information der Hochschule für Angewandte Wissenschaften Hamburg (WS 2007/2008).
  12. Christensen, A.: Wissenschaftliche Literatur entdecken : was bibliothekarische Discovery-Systeme von der Konkurrenz lernen und was sie ihr zeigen können (2022) 0.01
    0.013920381 = product of:
      0.08352228 = sum of:
        0.08352228 = weight(_text_:lernen in 833) [ClassicSimilarity], result of:
          0.08352228 = score(doc=833,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.43335947 = fieldWeight in 833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.0546875 = fieldNorm(doc=833)
      0.16666667 = coord(1/6)
    
  13. ¬Die Googleisierung der Informationssuche : Suchmaschinen zwischen Nutzung und Regulierung (2014) 0.01
    0.013357341 = product of:
      0.08014405 = sum of:
        0.08014405 = product of:
          0.1602881 = sum of:
            0.1602881 = weight(_text_:aufsatzsammlung in 1840) [ClassicSimilarity], result of:
              0.1602881 = score(doc=1840,freq=12.0), product of:
                0.22567567 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03439607 = queryNorm
                0.71025866 = fieldWeight in 1840, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1840)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    RSWK
    Suchmaschine / Recherche / Suchverfahren / Aufsatzsammlung
    Suchmaschine / Benutzer / Informationskompetenz / Aufsatzsammlung
    Google / Internet / Information Retrieval / Aufsatzsammlung
    Subject
    Suchmaschine / Recherche / Suchverfahren / Aufsatzsammlung
    Suchmaschine / Benutzer / Informationskompetenz / Aufsatzsammlung
    Google / Internet / Information Retrieval / Aufsatzsammlung
  14. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.01
    0.011931754 = product of:
      0.07159052 = sum of:
        0.07159052 = weight(_text_:lernen in 5025) [ClassicSimilarity], result of:
          0.07159052 = score(doc=5025,freq=2.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.37145096 = fieldWeight in 5025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.16666667 = coord(1/6)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
  15. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.01
    0.011835783 = product of:
      0.071014695 = sum of:
        0.071014695 = weight(_text_:hochschule in 3068) [ClassicSimilarity], result of:
          0.071014695 = score(doc=3068,freq=2.0), product of:
            0.21027663 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03439607 = queryNorm
            0.33772033 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
      0.16666667 = coord(1/6)
    
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
  16. Suchen und Finden im Internet (2007) 0.01
    0.0115677975 = product of:
      0.069406785 = sum of:
        0.069406785 = product of:
          0.13881357 = sum of:
            0.13881357 = weight(_text_:aufsatzsammlung in 484) [ClassicSimilarity], result of:
              0.13881357 = score(doc=484,freq=4.0), product of:
                0.22567567 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03439607 = queryNorm
                0.61510205 = fieldWeight in 484, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.046875 = fieldNorm(doc=484)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    RSWK
    Internet / Suchmaschine / Benutzeroberfläche / Aufsatzsammlung
    Subject
    Internet / Suchmaschine / Benutzeroberfläche / Aufsatzsammlung
  17. Handbuch Internet-Suchmaschinen 3 : Suchmaschinen zwischen Technik und Gesellschaft (2014) 0.01
    0.0115677975 = product of:
      0.069406785 = sum of:
        0.069406785 = product of:
          0.13881357 = sum of:
            0.13881357 = weight(_text_:aufsatzsammlung in 341) [ClassicSimilarity], result of:
              0.13881357 = score(doc=341,freq=4.0), product of:
                0.22567567 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03439607 = queryNorm
                0.61510205 = fieldWeight in 341, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.046875 = fieldNorm(doc=341)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    RSWK
    Suchmaschine / Technik / Gesellschaft / Aufsatzsammlung
    Subject
    Suchmaschine / Technik / Gesellschaft / Aufsatzsammlung
  18. Web search engine research (2012) 0.01
    0.0115677975 = product of:
      0.069406785 = sum of:
        0.069406785 = product of:
          0.13881357 = sum of:
            0.13881357 = weight(_text_:aufsatzsammlung in 478) [ClassicSimilarity], result of:
              0.13881357 = score(doc=478,freq=4.0), product of:
                0.22567567 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03439607 = queryNorm
                0.61510205 = fieldWeight in 478, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.046875 = fieldNorm(doc=478)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    RSWK
    Internet / Suchmaschine / Forschung / Aufsatzsammlung
    Subject
    Internet / Suchmaschine / Forschung / Aufsatzsammlung
  19. Söhler, M.: Schluss mit Schema F (2011) 0.01
    0.011249366 = product of:
      0.067496195 = sum of:
        0.067496195 = weight(_text_:lernen in 4439) [ClassicSimilarity], result of:
          0.067496195 = score(doc=4439,freq=4.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.35020733 = fieldWeight in 4439, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
      0.16666667 = coord(1/6)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
  20. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.01
    0.009843195 = product of:
      0.05905917 = sum of:
        0.05905917 = weight(_text_:lernen in 4440) [ClassicSimilarity], result of:
          0.05905917 = score(doc=4440,freq=4.0), product of:
            0.1927321 = queryWeight, product of:
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.03439607 = queryNorm
            0.3064314 = fieldWeight in 4440, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6033173 = idf(docFreq=442, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
      0.16666667 = coord(1/6)
    
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.

Years

Languages

  • d 99
  • e 67
  • f 1
  • nl 1
  • More… Less…

Types

  • a 140
  • m 16
  • el 14
  • s 7
  • x 4
  • p 2
  • r 1
  • More… Less…