Search (48 results, page 1 of 3)

  • × type_ss:"r"
  1. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.02
    0.015065095 = product of:
      0.13558586 = sum of:
        0.13558586 = sum of:
          0.10371402 = weight(_text_:bewertung in 1484) [ClassicSimilarity], result of:
            0.10371402 = score(doc=1484,freq=2.0), product of:
              0.18575147 = queryWeight, product of:
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.02940506 = queryNorm
              0.5583483 = fieldWeight in 1484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.31699 = idf(docFreq=216, maxDocs=44218)
                0.0625 = fieldNorm(doc=1484)
          0.031871837 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
            0.031871837 = score(doc=1484,freq=2.0), product of:
              0.10297151 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02940506 = queryNorm
              0.30952093 = fieldWeight in 1484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1484)
      0.11111111 = coord(1/9)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
  2. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.01
    0.011046993 = product of:
      0.049711466 = sum of:
        0.017300837 = product of:
          0.034601673 = sum of:
            0.034601673 = weight(_text_:web in 4063) [ClassicSimilarity], result of:
              0.034601673 = score(doc=4063,freq=8.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.36057037 = fieldWeight in 4063, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4063)
          0.5 = coord(1/2)
        0.03241063 = product of:
          0.06482126 = sum of:
            0.06482126 = weight(_text_:bewertung in 4063) [ClassicSimilarity], result of:
              0.06482126 = score(doc=4063,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.34896767 = fieldWeight in 4063, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4063)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
    RSWK
    Suchmaschine / Semantic Web / Information Retrieval
    Subject
    Suchmaschine / Semantic Web / Information Retrieval
  3. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.01
    0.008750779 = product of:
      0.078757 = sum of:
        0.078757 = weight(_text_:benutzerfreundlichkeit in 1076) [ClassicSimilarity], result of:
          0.078757 = score(doc=1076,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.34404564 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.11111111 = coord(1/9)
    
    Abstract
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
  4. Dzeyk, W.: Effektiv und nutzerfreundlich : Einsatz von semantischen Technologien und Usability-Methoden zur Verbesserung der medizinischen Literatursuche (2010) 0.01
    0.0076569305 = product of:
      0.06891237 = sum of:
        0.06891237 = weight(_text_:benutzerfreundlichkeit in 4416) [ClassicSimilarity], result of:
          0.06891237 = score(doc=4416,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.30103993 = fieldWeight in 4416, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
      0.11111111 = coord(1/9)
    
    Abstract
    Bei einem Vergleich unter Berücksichtigung aller verfügbaren Quellen gelang es mithilfe der MorphoSaurus-Technik - bei wesentlich geringerem Datenbestand - ähnlich gute Resul-tate zu erzielen, wie mit den Suchmaschinen Google oder Google Scholar. Die Ergebnisse der Evaluation lassen den Schluss zu, dass durch den MorphoSaurus-Ansatz die Leistungsfähigkeit von Google oder Google Scholar im Bereich der medizinischen Literatursuche durch eine Erweiterung der vorhandenen Datenbasis sogar deutlich übertroffen werden kann. Zusätzlich zu den Retrieval-Tests wurde eine Usability-Untersuchung der Testsuchmaschine mit Probanden aus der Medizin durchgeführt. Die Testpersonen attestierten dem Such-interface eine hohe Gebrauchstauglichkeit und Nützlichkeit. Der szenariobasierte Usability-Test hat zudem gezeigt, dass die Testpersonen bzw. User die integrierten Unterstützungs-maßnahmen zur Erhöhung der Benutzerfreundlichkeit während der Suche als sehr positiv und nützlich bewerten. In der Testsuchmaschine wurde diese Unterstützung z. B. durch das Aufklappen und Präsentieren von verwandten MeSH- und ICD-10-Begriffen realisiert. Die Einführung eines Schiebereglers zur effektiven Eingrenzung des Suchraums wurde ebenfalls überwiegend positiv bewertet. Zudem wurden nach Abschicken der Suchanfrage sogenannte Verwandte Suchbegriffe aus verschiedenen medizinischen Teilbereichen angezeigt. Diese Facetten-Funktion diente der Eingrenzung bzw. Verfeinerung der Suche und wurde von den Testpersonen mehrheitlich als ein sinnvolles Hilfsangebot bewertet. Insgesamt stellt das MorphoSaurus-Projekt - mit seinem spezifischen Ansatz - ein gelungenes Beispiel für die Innovationsfähigkeit von Bibliotheken im Bereich der öffentlichen Informationsversorgung dar. Durch die mögliche Anpassung der MorphoSaurus-Technologie mittels fachspezifischer Thesauri ist zudem eine hohe Anschlussfähigkeit für Suchmaschinen-projekte anderer Inhaltsdomänen gegeben.
  5. Reiner, U.: VZG-Projekt Colibri : Bewertung von automatisch DDC-klassifizierten Titeldatensätzen der Deutschen Nationalbibliothek (DNB) (2009) 0.01
    0.006237429 = product of:
      0.05613686 = sum of:
        0.05613686 = product of:
          0.11227372 = sum of:
            0.11227372 = weight(_text_:bewertung in 2675) [ClassicSimilarity], result of:
              0.11227372 = score(doc=2675,freq=6.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.6044298 = fieldWeight in 2675, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2675)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Das VZG-Projekt Colibri/DDC beschäftigt sich seit 2003 mit automatischen Verfahren zur Dewey-Dezimalklassifikation (Dewey Decimal Classification, kurz DDC). Ziel des Projektes ist eine einheitliche DDC-Erschließung von bibliografischen Titeldatensätzen und eine Unterstützung der DDC-Expert(inn)en und DDC-Laien, z. B. bei der Analyse und Synthese von DDC-Notationen und deren Qualitätskontrolle und der DDC-basierten Suche. Der vorliegende Bericht konzentriert sich auf die erste größere automatische DDC-Klassifizierung und erste automatische und intellektuelle Bewertung mit der Klassifizierungskomponente vc_dcl1. Grundlage hierfür waren die von der Deutschen Nationabibliothek (DNB) im November 2007 zur Verfügung gestellten 25.653 Titeldatensätze (12 Wochen-/Monatslieferungen) der Deutschen Nationalbibliografie der Reihen A, B und H. Nach Erläuterung der automatischen DDC-Klassifizierung und automatischen Bewertung in Kapitel 2 wird in Kapitel 3 auf den DNB-Bericht "Colibri_Auswertung_DDC_Endbericht_Sommer_2008" eingegangen. Es werden Sachverhalte geklärt und Fragen gestellt, deren Antworten die Weichen für den Verlauf der weiteren Klassifizierungstests stellen werden. Über das Kapitel 3 hinaus führende weitergehende Betrachtungen und Gedanken zur Fortführung der automatischen DDC-Klassifizierung werden in Kapitel 4 angestellt. Der Bericht dient dem vertieften Verständnis für die automatischen Verfahren.
  6. Kaizik, A.; Gödert, W.; Oßwald, A.: Evaluation von Subject Gateways des Internet (EJECT) : Projektbericht (2001) 0.01
    0.006111407 = product of:
      0.055002663 = sum of:
        0.055002663 = product of:
          0.11000533 = sum of:
            0.11000533 = weight(_text_:bewertung in 1476) [ClassicSimilarity], result of:
              0.11000533 = score(doc=1476,freq=4.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5922178 = fieldWeight in 1476, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1476)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu errei-chen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele:· Durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; Einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen;· Diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden in dieser Studie ausführlich vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist.
  7. Lutz, B.; Moldaschl, M.: Expertensysteme und Industrielle Facharbeit : ein Gutachten über denkbare qualifikatorische Auswirkungen von Expertensystemen in der fertigenden Industrie erstellt im Auftrag der Enquete-Kommission "Technikfolgenabschätzung und -bewertung" des Deutschen Bundestages (1989) 0.01
    0.006111407 = product of:
      0.055002663 = sum of:
        0.055002663 = product of:
          0.11000533 = sum of:
            0.11000533 = weight(_text_:bewertung in 3890) [ClassicSimilarity], result of:
              0.11000533 = score(doc=3890,freq=4.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5922178 = fieldWeight in 3890, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3890)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Mit Schreiben vom 17.3.1988 wurde das Institut für Sozialwissenschaftliche Forschung von Herrn Dr. Rüttgers, MdB, Vorsitzender der Enquete-Kommission "Technikfolgenabschätzung und -bewertung" des Deutschen Bundestages, aufgefordert, ein Angebot für ein Gutachten vorzulegen, das "mögliche Auswirkungen des Einsatzes von Expertensystemen auf die Beschäftigten, die Bedürfnisse der Beschäftigten" in der fertigenden Industrie behandeln solle. Zwei weitere, gleichzeitig von anderen Wissenschaftlern zu erstellende Gutachten sollten einerseits gegenwärtige und zu erwartende Anwendungen von Expertensystemen in der fertigenden Industrie aufzeigen und andererseits Einsatzmöglichkeiten und denkbare Auswirkungen aus betrieblicher Perspektive klären. Dieses Gutachten wollte sich allerdings: - vor allem auf die qualifikatorischen Folgen der Einführung von Expertensystemen konzentrieren - und einer Vorgehensweise folgen, die keine prognostischen Aussagen, sondern lediglich eine Abschätzung des "Raumes" potentieller Wirkungen liefern konnte.
  8. McCormick, A.; Sutton, A.: Open learning and the Internet in public libraries (1998) 0.01
    0.005918263 = product of:
      0.026632184 = sum of:
        0.014680246 = product of:
          0.029360492 = sum of:
            0.029360492 = weight(_text_:web in 3685) [ClassicSimilarity], result of:
              0.029360492 = score(doc=3685,freq=4.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3059541 = fieldWeight in 3685, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3685)
          0.5 = coord(1/2)
        0.011951938 = product of:
          0.023903877 = sum of:
            0.023903877 = weight(_text_:22 in 3685) [ClassicSimilarity], result of:
              0.023903877 = score(doc=3685,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.23214069 = fieldWeight in 3685, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3685)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Presents the findings of the South Ayrshire Libraries OPen Learning and the Internet project, Sep 1997 to Oct 1998. The objective was to demonstrate how open learning materials available on the Internet could be integrated with the provision of local open learning resources to provide an enhanced learning environment in public libraries. The main areas of concentration within the project were information skills support to public library users and the provision of WWW based independent materials to learners. The organisation and retrieval of Web based resources for local use was a major issue throughout the project. Recommends the adoption of Dublin Core metadata standards, the connection of databases of resources with searchable wen pages, and the development of thesauri of terms used to index the Web based resources locally. Sstaff training, and the new skills which will need to be developed, were identified as issues. Cost was also identified as a related issue, extending to issues such as access to open learning material and the Internet
    Date
    22. 5.1999 18:55:19
  9. Arnold, F.-J. (Red.): Telekommunikationspolitik : Rahmenbedingungen für die Telekommunikation (1995) 0.01
    0.00576189 = product of:
      0.05185701 = sum of:
        0.05185701 = product of:
          0.10371402 = sum of:
            0.10371402 = weight(_text_:bewertung in 4208) [ClassicSimilarity], result of:
              0.10371402 = score(doc=4208,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5583483 = fieldWeight in 4208, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4208)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Content
    Die Landesinitiative Telekommunikation TELETECH NRW / Der Zusammenhang zwischen Postreform I und Postreform II in Deutschland / Der ordnungspolitische Rahmen der Postreform I / Die Entwicklung der Telekommunikation in Deutschland nach der Postreform I / Auswirkungen und Ziele der Telekommunikationspolitik der Europäischen Union / Die Postreform II in Deutschland / Bewertung der Postreform II und Ausblick / Forderungen an den Gesetzgeber und die Regulierung für einen funktionierenden Wettbewerb in Deutschland
  10. Körner, H.G.: Notationssysteme für Dokumentationssprachen und Klassifikationssysteme (1980) 0.01
    0.0050416538 = product of:
      0.045374885 = sum of:
        0.045374885 = product of:
          0.09074977 = sum of:
            0.09074977 = weight(_text_:bewertung in 1239) [ClassicSimilarity], result of:
              0.09074977 = score(doc=1239,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.48855478 = fieldWeight in 1239, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1239)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Klassifikationen haben i.a. bei jeder Systemstelle eine Notation, die den Platz im System festlegt und als Kurzbezeichnung dient. Dokumentationssprachen verwenden häufig einen hierarchisch strukturierten Thesaurus, bei dem ebenfalls Notationen eingesetzt werden können. Beim Entwurf von Notationen sollten computer-interne und computer-externe Aspekte berücksichtigt werden. Es wird systematisch dargestellt, welche grundsätzlichen Typen von Notationssysstemen entworfen werden können, u.a. auch die vom Verfasser entwickelten durchgehenden oder sequentiellen Notationen mit Ebenenindikator. Linksbündige sequentielle Notationssysteme sind besonders flexibel, d.h. Einfügungen und andere Veränderungen sind leicht möglich. Die Bewertung von Notationssystemen, an einem Beispiel durchgeführt, geschieht an Hand eines möglichst umfassenden Anforderungskatalogs. Für Entwurfsentscheidungen werden die Methoden der Nutzwertanalyse empfohlen, insbesondere auch bei der Frage, ob Notationen überhaupt eingesetzt werden sollen. Eine weitere Möglichkeit ist, daß Notationen nur auf bestimmten hierarchischen Ebenen verwendet werden
  11. Kuhlen, R.; Hess, M.S.: Passagen-Retrieval : auch eine Möglichkeit der automatischen Verknüpfung in Hypertexten (1993) 0.00
    0.0043214173 = product of:
      0.038892757 = sum of:
        0.038892757 = product of:
          0.077785514 = sum of:
            0.077785514 = weight(_text_:bewertung in 1947) [ClassicSimilarity], result of:
              0.077785514 = score(doc=1947,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.41876122 = fieldWeight in 1947, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1947)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Das Passagen-Retrieval erlaubt explorierendes Navigieren in Volltextdatenbanken, aber auch in textorientierten Hypertextbasen. Es wird experimentell an fünf, im Information Retrieval geläufigen Assoziationskoeffizienten überprüft, inwieweit mit ihnen Textpassagen, gewonnen aus der Konversion von Absätzen aus einer Buchvorlage (Hypertextbuch von R. Kuhlen, 1991b), automatisch verknüpft werden können. Voraussetzung für die Anwendung der Maße ist eine Volltextinvertierung mit linguistisch abgesicherter Stammformenreduktion. Die Ergebnisse, gewonnen aus der Bewertung der Verknüpfungsangebote entsprechend den Berechnungen nach den fünf Koeffizienten und aus dem Vergleich mit einer intellektuellen Verknüpfungsvorgabe, zeigen eine deutliche Präferenz zugunsten des Asymmetrie-Maßes, das vielleicht noch durch eine Kombination mit dem Cosinus-Maß verbessert werden könnte. Die automatisch erstellten Verknüpfungsangebote sind sowohl im Autoren-Modus zur Unterstützung des Aufbaus von Hypertextbasen sinnvoll als auch im Lese-Modus als Möglichkeit des assoziativen Navigierens in großen Hypertextbasen verwendbar.
  12. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.00
    0.0035413152 = product of:
      0.031871837 = sum of:
        0.031871837 = product of:
          0.06374367 = sum of:
            0.06374367 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
              0.06374367 = score(doc=7383,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.61904186 = fieldWeight in 7383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7383)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    22. 2.1997 19:46:30
  13. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.00
    0.003296084 = product of:
      0.029664757 = sum of:
        0.029664757 = product of:
          0.059329513 = sum of:
            0.059329513 = weight(_text_:web in 4782) [ClassicSimilarity], result of:
              0.059329513 = score(doc=4782,freq=12.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.6182494 = fieldWeight in 4782, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4782)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
    Theme
    Semantic Web
  14. Wheelbarger, J.J.; Clouse, R.W.: ¬A comparision of a manual library reclassification project with a computer automated library reclassification project (1975) 0.00
    0.0030986508 = product of:
      0.027887857 = sum of:
        0.027887857 = product of:
          0.055775713 = sum of:
            0.055775713 = weight(_text_:22 in 3473) [ClassicSimilarity], result of:
              0.055775713 = score(doc=3473,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5416616 = fieldWeight in 3473, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3473)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Pages
    22 S
  15. Matthews, J.R.; Parker, M.R.: Local Area Networks and Wide Area Networks for libraries (1995) 0.00
    0.0030986508 = product of:
      0.027887857 = sum of:
        0.027887857 = product of:
          0.055775713 = sum of:
            0.055775713 = weight(_text_:22 in 2656) [ClassicSimilarity], result of:
              0.055775713 = score(doc=2656,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5416616 = fieldWeight in 2656, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2656)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    30.11.1995 20:53:22
  16. Knowledge graphs : new directions for knowledge representation on the Semantic Web (2019) 0.00
    0.0027185641 = product of:
      0.024467077 = sum of:
        0.024467077 = product of:
          0.048934154 = sum of:
            0.048934154 = weight(_text_:web in 51) [ClassicSimilarity], result of:
              0.048934154 = score(doc=51,freq=16.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5099235 = fieldWeight in 51, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=51)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    The increasingly pervasive nature of the Web, expanding to devices and things in everydaylife, along with new trends in Artificial Intelligence call for new paradigms and a new look onKnowledge Representation and Processing at scale for the Semantic Web. The emerging, but stillto be concretely shaped concept of "Knowledge Graphs" provides an excellent unifying metaphorfor this current status of Semantic Web research. More than two decades of Semantic Webresearch provides a solid basis and a promising technology and standards stack to interlink data,ontologies and knowledge on the Web. However, neither are applications for Knowledge Graphsas such limited to Linked Open Data, nor are instantiations of Knowledge Graphs in enterprises- while often inspired by - limited to the core Semantic Web stack. This report documents theprogram and the outcomes of Dagstuhl Seminar 18371 "Knowledge Graphs: New Directions forKnowledge Representation on the Semantic Web", where a group of experts from academia andindustry discussed fundamental questions around these topics for a week in early September 2018,including the following: what are knowledge graphs? Which applications do we see to emerge?Which open research questions still need be addressed and which technology gaps still need tobe closed?
    Theme
    Semantic Web
  17. Information for a new age : redefining the librarian (1995) 0.00
    0.0026559862 = product of:
      0.023903877 = sum of:
        0.023903877 = product of:
          0.047807753 = sum of:
            0.047807753 = weight(_text_:22 in 2538) [ClassicSimilarity], result of:
              0.047807753 = score(doc=2538,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46428138 = fieldWeight in 2538, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2538)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Footnote
    Rez. in: Journal of academic librarianship 22(1996) no.2, S.147 (A. Schultis)
  18. Cleverdon, C.W.: ASLIB Cranfield Research Project : Report on the first stage of an investigation into the comparative efficiency of indexing systems (1960) 0.00
    0.0026559862 = product of:
      0.023903877 = sum of:
        0.023903877 = product of:
          0.047807753 = sum of:
            0.047807753 = weight(_text_:22 in 6158) [ClassicSimilarity], result of:
              0.047807753 = score(doc=6158,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46428138 = fieldWeight in 6158, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6158)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Footnote
    Rez. in: College and research libraries 22(1961) no.3, S.228 (G. Jahoda)
  19. ¬The future of national bibliography (1997) 0.00
    0.0026559862 = product of:
      0.023903877 = sum of:
        0.023903877 = product of:
          0.047807753 = sum of:
            0.047807753 = weight(_text_:22 in 1715) [ClassicSimilarity], result of:
              0.047807753 = score(doc=1715,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46428138 = fieldWeight in 1715, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1715)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Footnote
    Rez. in: Select newsletter 1998, no.22, S.8 (P. Robinson)
  20. Carey, K.; Stringer, R.: ¬The power of nine : a preliminary investigation into navigation strategies for the new library with special reference to disabled people (2000) 0.00
    0.0026559862 = product of:
      0.023903877 = sum of:
        0.023903877 = product of:
          0.047807753 = sum of:
            0.047807753 = weight(_text_:22 in 234) [ClassicSimilarity], result of:
              0.047807753 = score(doc=234,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46428138 = fieldWeight in 234, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=234)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Pages
    22 S

Years

Languages

  • d 24
  • e 21

Types