Search (35 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Metadaten"
  • × type_ss:"a"
  1. Söhler, M.: Schluss mit Schema F (2011) 0.03
    0.026028767 = product of:
      0.13014384 = sum of:
        0.07743287 = weight(_text_:suchmaschine in 4439) [ClassicSimilarity], result of:
          0.07743287 = score(doc=4439,freq=6.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.4328137 = fieldWeight in 4439, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.033301905 = weight(_text_:web in 4439) [ClassicSimilarity], result of:
          0.033301905 = score(doc=4439,freq=10.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.32250395 = fieldWeight in 4439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.01940906 = product of:
          0.03881812 = sum of:
            0.03881812 = weight(_text_:analyse in 4439) [ClassicSimilarity], result of:
              0.03881812 = score(doc=4439,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23284946 = fieldWeight in 4439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4439)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  2. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.02
    0.02215991 = product of:
      0.11079955 = sum of:
        0.06775376 = weight(_text_:suchmaschine in 4440) [ClassicSimilarity], result of:
          0.06775376 = score(doc=4440,freq=6.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.378712 = fieldWeight in 4440, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.026062861 = weight(_text_:web in 4440) [ClassicSimilarity], result of:
          0.026062861 = score(doc=4440,freq=8.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25239927 = fieldWeight in 4440, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.016982928 = product of:
          0.033965856 = sum of:
            0.033965856 = weight(_text_:analyse in 4440) [ClassicSimilarity], result of:
              0.033965856 = score(doc=4440,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.20374328 = fieldWeight in 4440, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4440)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
    - "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
  3. Niederée, C.: Metadaten als Bausteine des Semantic Web (2003) 0.01
    0.01228218 = product of:
      0.09211634 = sum of:
        0.033011325 = weight(_text_:software in 1761) [ClassicSimilarity], result of:
          0.033011325 = score(doc=1761,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.2629875 = fieldWeight in 1761, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=1761)
        0.059105016 = weight(_text_:web in 1761) [ClassicSimilarity], result of:
          0.059105016 = score(doc=1761,freq=14.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.57238775 = fieldWeight in 1761, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1761)
      0.13333334 = coord(2/15)
    
    Abstract
    Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
    Theme
    Semantic Web
  4. Mainberger, C.: Aktuelles aus der Digital Library (2003) 0.01
    0.011449522 = product of:
      0.08587141 = sum of:
        0.07097835 = sum of:
          0.012879624 = weight(_text_:online in 1547) [ClassicSimilarity], result of:
            0.012879624 = score(doc=1547,freq=2.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.13412495 = fieldWeight in 1547, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.03125 = fieldNorm(doc=1547)
          0.05809873 = weight(_text_:recherche in 1547) [ClassicSimilarity], result of:
            0.05809873 = score(doc=1547,freq=4.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.33876523 = fieldWeight in 1547, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.03125 = fieldNorm(doc=1547)
        0.014893063 = weight(_text_:web in 1547) [ClassicSimilarity], result of:
          0.014893063 = score(doc=1547,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.14422815 = fieldWeight in 1547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=1547)
      0.13333334 = coord(2/15)
    
    Abstract
    Digitales Bibliotheksgut bildet neben dem Verbundsystem und Lokalsystemen schon seit einigen Jahren einen der Schwerpunkte des Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Dazu wurden in einer Reihe von Projekten unterschiedliche Gesichtspunkte dieser vergleichsweise neuen Medien berücksichtigt. Viele dieser Projekte sind mittlerweile abgeschlossen, einige in einen regelrechten Routinebetrieb übergegangen. Video- und Audiofiles, aber auch Image- und Textdateien stellen zunächst durch ihre technische Form spezielle Anforderungen an ihre Erzeugung, Aufbewahrung und Nutzung. Daran schließt sich die Entwicklung geeigneter Verfahren und Hilfsmittel zur Verzeichnung und Erschließung an. Spezielle Suchmaschinen und Austauschprotokolle ermöglichen ein adäquates Retrieval elektronischer Ressourcen und ihre Distribution. Ein eigenes Feld stellt der Einsatz von multimedialen Lehr- und Lernmaterialien im Hochschulunterricht dar. Die technischen Eigenschaften und Möglichkeiten führen darüber hinaus zu anderen inhaltlichen Strukturen als bei "konventioneller" Literatur und schließlich zu einer andersartigen rechtlichen Verortung dieser Bestände. Zu allen diesen Themen war das BSZ tätig, meist in Kooperationen mit Partnern wie z.B. den OPUS-Anwendern oder der DLmeta-Initative. Im Mittelpunkt dieses Engagements steht der Virtuelle Medienserver, der die Metadaten der dezentral vorgehaltenen Objekte enthält, diese über Hyperlinks erreichen kann und der mit der Verbunddatenbank synchronisiert ist. Die "digitale" Bibliotheksarbeit orientiert sich dabei an den Methoden und Prinzipien der "analogen" Bibliotheksarbeit, passt diese teils den neuen, digitalen Möglichkeiten an, insbesondere der Online-Zugänglichkeit, vermeidet aber Brüche in den Nachweisinstrumenten. Im Folgenden soll dies an vier zentralen Aspekten deutlich gemacht werden, die Teil jeder Bibliotheksarbeit sind und entsprechend in aktuellen Projekten der Digital Library im BSZ ihren Niederschlag finden: Recherche- und Zugangsmöglichkeiten oder "Portale", Inhalte und Medien oder "Content", Regelwerke und Formate oder "Metadaten", Sprachverwendung oder "Normvokabular und Klassifikationen". Illustriert werden diese Themen anhand aktueller Projekte, zunächst die Sprachverwendung anhand des BAM-Portals: Das BAM-Portal wird in einem DFG-Projekt in Kooperation des BSZ mit der Landesarchivdirektion Baden-Württemberg und dem Landesmuseum für Technik und Arbeit entwickelt. Es zielt darauf ab, in Bibliotheken, Archiven und Museen vorhandene digitale Bestände unter einer einheitlichen Oberfläche übers World Wide Web zugänglich zu machen. Eine Recherche im BAMPortal führt auf eine fachübergreifende Trefferliste, in der jeder Treffer über Internetlinks mit einer ausführlichen, herkunftsgerechten Beschreibung verknüpft ist. Von dort ist gegebenenfalls ein zugehöriges Digitalisat bzw. eine multimediale Veranschaulichung erreichbar. Da übliche Suchaspekte, wie der Autor für Literatur oder die Provenienz für das Archivalien im gemeinsamen Kontext nicht fachübergreifende Resultate ergeben, treten hier themenbezogene Recherchen in den Vordergrund. Daher widmen wir im BAM-Portal der thematischen Erschließung der verschiedenen Datenbestände die größte Aufmerksamkeit.
  5. Schneider, S.: Recherche und Literaturbestellung leicht gemacht! : MedPilot - Virtuelle Fachbibliothek Medizin (2003) 0.01
    0.0099279955 = product of:
      0.07445996 = sum of:
        0.035946753 = product of:
          0.071893506 = sum of:
            0.071893506 = weight(_text_:recherche in 1914) [ClassicSimilarity], result of:
              0.071893506 = score(doc=1914,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.41920057 = fieldWeight in 1914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1914)
          0.5 = coord(1/2)
        0.03851321 = weight(_text_:software in 1914) [ClassicSimilarity], result of:
          0.03851321 = score(doc=1914,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.30681872 = fieldWeight in 1914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1914)
      0.13333334 = coord(2/15)
    
    Abstract
    MedPilot (www.medpilot.de) ist ein Gemeinschaftsprojekt der Deutschen Zentralbibliothek für Medizin (ZBMed) und des Deutschen Instituts für Medizinische Dokumentation und Information (DIMDI). Im Rahmen der Virtuellen Fachbibliotheken wird MedPilot von der Deutschen Forschungsgemeinschaft (DFG) gefördert. MedPilot basiert auf der Software SISIS-Elektra, welche im Rahmen des Projektes weiterentwickelt wurde. Projektstart im August 2001, Testbetrieb seit Juli 2002, offizielle Eröffnung im Februar 2003
  6. Fischer, T.: Metadata registries : Aktueller Stand und zukünftige Entwicklungen (2003) 0.01
    0.0068604243 = product of:
      0.05145318 = sum of:
        0.022339594 = weight(_text_:web in 1762) [ClassicSimilarity], result of:
          0.022339594 = score(doc=1762,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.21634221 = fieldWeight in 1762, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1762)
        0.029113589 = product of:
          0.058227178 = sum of:
            0.058227178 = weight(_text_:analyse in 1762) [ClassicSimilarity], result of:
              0.058227178 = score(doc=1762,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.3492742 = fieldWeight in 1762, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1762)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Registries haben sich im Umfeld des Dublin-Core-Metadatensatzes als Referenzwerkzeug etabliert. In der Zukunft werden komplexe und vielfältige Metadatensysteme benutzt werden, wie sie als »Anwendungsprofile« zunehmend entwickelt werden. Andererseits erwachsen aus den Visionen, die unter dem Stichwort »Semantic Web« formuliert werden, Anforderungen an automatisierte Prozesse der Analyse und Übersetzung von Metadaten. Diese Aufgaben sollten die Metadaten-Registries bearbeiten. Das stellt höhere Ansprüche an Registries,was die Aufnahme und Verwaltung der Metadatenschemata einerseits und die technische Implementierung maschinenlesbarer Strukturen andererseits betrifft. Auf den bestehenden Registries aufbauend wird das zu verteilten Strukturen führen, die die Auswertung von Metadaten erleichtern und damit die Akzeptanz gegenüber dem Konzept »Metadaten« allgemein erhöhen werden.
  7. Blumauer, A.; Hochmeister, M.: Tag-Recommender gestützte Annotation von Web-Dokumenten (2009) 0.00
    0.0038852221 = product of:
      0.05827833 = sum of:
        0.05827833 = weight(_text_:web in 4866) [ClassicSimilarity], result of:
          0.05827833 = score(doc=4866,freq=10.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.5643819 = fieldWeight in 4866, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4866)
      0.06666667 = coord(1/15)
    
    Abstract
    In diesem Kapitel wird die zentrale Bedeutung der Annotation von Webdokumenten bzw. von Ressourcen in einem Semantischen Web diskutiert. Es wird auf aktuelle Methoden und Techniken in diesem Gebiet eingegangen, insbesondere wird das Phänomen "Social Tagging" als zentrales Element eines "Social Semantic Webs" beleuchtet. Weiters wird der Frage nachgegangen, welchen Mehrwert "Tag Recommender" beim Annotationsvorgang bieten, sowohl aus Sicht des End-Users aber auch im Sinne eines kollaborativen Ontologieerstellungsprozesses. Schließlich wird ein Funktionsprinzip für einen semi-automatischen Tag-Recommender vorgestellt unter besonderer Berücksichtigung der Anwendbarkeit in einem Corporate Semantic Web.
    Source
    Social Semantic Web: Web 2.0, was nun? Hrsg.: A. Blumauer u. T. Pellegrini
  8. Schweibenz, W.: Proactive Web design : Maßnahmen zur Verbesserung der Auffindbarkeit von Webseiten durch Suchmaschinen (1999) 0.00
    0.003439406 = product of:
      0.051591087 = sum of:
        0.051591087 = weight(_text_:web in 4065) [ClassicSimilarity], result of:
          0.051591087 = score(doc=4065,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.49962097 = fieldWeight in 4065, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=4065)
      0.06666667 = coord(1/15)
    
    Abstract
    Unter proactive Web design versteht man alle Maßnahmen, welche die Auffindbarkeit von Webseiten durch Suchmaschinen verbessern und bereits im Vorfeld oder im Moment der Publikation im WWW ergriffen werden können. Diese Maßnahmen reichen von der Registrierung einer Webseite bei Suchmaschinen über die Verknüpfung mit verwandten Web-Seiten und der aussagekräftigen Gestaltung von Titeln von Webseiten bis zur Verwendung von Metadaten
  9. Weber, J.: Nachlässe und Autographen im WWW : Dublin Core in Museen, Archiven und Bibliotheken (2000) 0.00
    0.0030027253 = product of:
      0.022520438 = sum of:
        0.009659718 = product of:
          0.019319436 = sum of:
            0.019319436 = weight(_text_:online in 4458) [ClassicSimilarity], result of:
              0.019319436 = score(doc=4458,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.20118743 = fieldWeight in 4458, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4458)
          0.5 = coord(1/2)
        0.01286072 = product of:
          0.02572144 = sum of:
            0.02572144 = weight(_text_:22 in 4458) [ClassicSimilarity], result of:
              0.02572144 = score(doc=4458,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23214069 = fieldWeight in 4458, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4458)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Vielen Bibliotheksbenutzern wird inzwischen mehr und mehr bewußt: Alle Vernetzungsbestrebungen in Bibliotheksbereich, die lokale Traditionen zugunsten eines überregionalen Nachweises der Bestände aufgeben, handeln auch gegen die Benutzerinteressen. Wir werden uns zunehmend klar darüber, daß von den meisten wissenschaftlern der lokale Online-Katalog allein für Literaturrecherchen herangezogen wird, und zwar aus dem Grund, daß das gesuchte Buch so schnell und unkompliziert wie möglich zur Hand sein soll. Diese Feststellung impliziert auch den Gedanken, daß die Aufgabe guter lokaler Katalogisierungstraditionen möglicherweise ein unwiederbringlicher Verlust ist, ein Schritt hin zu einer schlechteren und oberflächlicheren Information. Wie sich eine überregionale Verbesserung der Nachweissituation unter gleichzeitiger Bewahrung lokaler Traditionen darstellen kann, ist Gegenstand der folgenden Ausführungen. Sie bahandeln das Thema aus dem Blickwinkel der Bilbiotheken, Archive und Museen, deren aufgabe im Nachweis und der Bewahrung von Unikaten besteht. die hier behandelte Metadatendiskussion bezieht sich also auf die Beschreibungskriterien nicht für digitales Material, sondern für Manuskripte, Briefe, Gegenstände
    Date
    12. 3.2000 19:25:22
  10. Al-Eryani, S.; Bucher, G.; Rühle, S: ¬Ein Metadatenmodell für gemischte Sammlungen (2018) 0.00
    0.0024821775 = product of:
      0.03723266 = sum of:
        0.03723266 = weight(_text_:web in 5110) [ClassicSimilarity], result of:
          0.03723266 = score(doc=5110,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.36057037 = fieldWeight in 5110, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=5110)
      0.06666667 = coord(1/15)
    
    Abstract
    Im Rahmen des DFG-geförderten Projekts "Entwicklung von interoperablen Standards für die Kontextualisierung heterogener Objekte am Beispiel der Provenienz Asch" wurde ein Semantic Web und Linked Open Data fähiges Metadatenmodell entwickelt, das es ermöglicht, institutionsübergreifend Kulturerbe und dessen Provenienz zu kontextualisieren.
  11. Grün, S.; Poley, C: Statistische Analysen von Semantic Entities aus Metadaten- und Volltextbeständen von German Medical Science (2017) 0.00
    0.0024604585 = product of:
      0.036906876 = sum of:
        0.036906876 = weight(_text_:evaluation in 5032) [ClassicSimilarity], result of:
          0.036906876 = score(doc=5032,freq=2.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.278072 = fieldWeight in 5032, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.046875 = fieldNorm(doc=5032)
      0.06666667 = coord(1/15)
    
    Abstract
    This paper analyzes the information content of metadata and full texts in German Medical Science (GMS) articles in English language. The object of the study is to compare semantic entities that are used to enrich GMS metadata (titles and abstracts) and GMS full texts. The aim of the study is to test whether using full texts increases the value added information. The comparison and evaluation of semantic entities was done statistically. Measures of descriptive statistics were gathered for this purpose. In addition to the ratio of central tendencies and scatterings, we computed the overlaps and complements of the values. The results show a distinct increase of information when full texts are added. On average, metadata contain 25 different entities and full texts 215. 89% of the concepts in the metadata are also represented in the full texts. Hence, 11% of the metadata concepts are found in the metadata only. In summary, the results show that the addition of full texts increases the informational value, e.g. for information retrieval processes.
  12. Gömpel, R.; Altenhöner, R.; Kunz, M.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 70. IFLA-Generalkonferenz in Buenos Aires : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2004) 0.00
    0.0022912906 = product of:
      0.017184678 = sum of:
        0.012897772 = weight(_text_:web in 2874) [ClassicSimilarity], result of:
          0.012897772 = score(doc=2874,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.12490524 = fieldWeight in 2874, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.015625 = fieldNorm(doc=2874)
        0.0042869067 = product of:
          0.008573813 = sum of:
            0.008573813 = weight(_text_:22 in 2874) [ClassicSimilarity], result of:
              0.008573813 = score(doc=2874,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.07738023 = fieldWeight in 2874, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2874)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    "Libraries: Tools for Education and Development" war das Motto der 70. IFLA-Generalkonferenz, dem Weltkongress Bibliothek und Information, der vom 22.-27. August 2004 in Buenos Aires, Argentinien, und damit erstmals in Lateinamerika stattfand. Rund 3.000 Teilnehmerinnen und Teilnehmer, davon ein Drittel aus spanischsprachigen Ländern, allein 600 aus Argentinien, besuchten die von der IFLA und dem nationalen Organisationskomitee gut organisierte Tagung mit mehr als 200 Sitzungen und Veranstaltungen. Aus Deutschland waren laut Teilnehmerverzeichnis leider nur 45 Kolleginnen und Kollegen angereist, womit ihre Zahl wieder auf das Niveau von Boston gesunken ist. Erfreulicherweise gab es nunmehr bereits im dritten Jahr eine deutschsprachige Ausgabe des IFLA-Express. Auch in diesem Jahr soll hier über die Veranstaltungen der Division IV Bibliographic Control berichtet werden. Die Arbeit der Division mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie der neuen Sektion Knowledge Management bildet einen der Schwerpunkte der IFLA-Arbeit, die dabei erzielten konkreten Ergebnisse und Empfehlungen haben maßgeblichen Einfluss auf die tägliche Arbeit der Bibliothekarinnen und Bibliothekare. Erstmals wird auch ausführlich über die Arbeit der Core Activities ICABS und UNIMARC und der Information Technology Section berichtet.
    Content
    Cataloguing Section (Sektion Katalogisierung) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. In Anbetracht des laufenden Evaluierungsprozesses wurde der Strategieplan der Sektion zum jetzigen Zeitpunkt nur dort aktualisiert, wo es unbedingt erforderlich war. Neue Ziele wurden nicht aufgenommen. Oberste Priorität bei den strategischen Zielen behielt die Entwicklung internationaler Katalogisierungsstandards für die bibliographische Beschreibung und den Zugriff. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört auch in Zukunft die Weiterentwicklung und Revision der ISBDs zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u. a.: - die vollständige Veröffentlichung der Anonymous Classics: Der Teil für europäische Literatur ist inzwischen veröffentlicht'. Für die Erarbeitung weiterer Teile (Lateinamerika, Afrika und Asien) soll das Verfahren gestrafft und ein Zeitplan erstellt werden. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber zur Förderung des mehrsprachigen Zugangs zu bibliographischer Information - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Das Open Programme der Sektion stand in diesem Jahr unter dem Motto "Developments in Cataloguing Guidelines" und wurde von Barbara Tillett, Lynne Howarth und Carol van Nuys bestritten. Lynne Howarth ging in ihrem Vortrag "Enabling metadata: creating a core record for resource discovery" auf die Reaktionen im weltweiten Stellungnahmeverfahren auf die Veröffentlichung des Papiers "Guidance an the Structure, Content and Application of Metadata Records for digital resources and collections" der Working Group an the Use of Metadata Schemes ein. Carol van Nuys stellte das norwegische "Paradigma Project and its quest for metadata solutions and services" vor.
    Aus den Arbeitsgruppen der Cataloguing Sektion: Schwerpunkt der Arbeiten der ISBD Review Group bleibt die Fortsetzung des generellen Revisionsprojekts. 2004 konnte die revidierte ISBD(G) veröffentlicht werden Für die Revision der ISBD(A) wurde eine Study Group aus Experten für das Alte Buch gebildet. Das weltweite Stellungnahmeverfahren ist für Frühjahr 2005 geplant. Bezüglich der Revision der ISBD(ER) konnten im weltweiten Stellungnahmeverfahren aufgekommene Fragen während der Sitzungen in Buenos Aires abschließend geklärt werden. Die Veröffentlichung der neuen ISBD(ER) ist für Ende 2004 / Anfang 2005 geplant. Die Revision der ISBD(CM) ist im Rahmen einer gemeinsamen Arbeitsgruppe der ISBD Review Group und der Sektion Geographie und Karten weiter vorangekommen. Für die Revision der ISBD(NBM) soll eine eigene Study Group gebildet werden. Die FRBR Review Group konnte erste Fortschritte bei der Erreichung der im vergangenen Jahr gesetzten Ziele Erarbeitung einer Richtlinie zur Anwendung der FRBR bei der Katalogisierung, Erweiterung der FRBR-Web-Seite im IFLAnet, um bei anderen communities (Archive, Museen etc.) für das Modell zu werben, sowie Überarbeitung des FRBR-Modells vermeIden. Von den in Berlin gebildeten fünf FRBR-Arbeitsgruppen (Expression entity Working Group, Working Group an continuing resources, Working Group an teaching and training, Working Group an subject relationships and classification, Working Group an FRBR/CRM dialogue) sind einige bereits aktiv gewesen, vor allem die letztgenannte Working Group an FRBR/CRM dialogue. Die "Working Group an subject relationships and classification" soll demnächst in Zusammenarbeit mit der Classification and Indexing Section etabliert werden. Ziel hierbei ist es, die FRBR auch auf den Bereich der Inhaltserschließung auszuweiten. Die "Working Group an continuing resources" hat in Buenos Aires beschlossen, ihre Arbeit nicht fortzuführen, da die FRBR in ihrer derzeitigen Fassung "seriality" nicht ausreichend berücksichtigen. Es ist geplant, eine neue Arbeitsgruppe unter Einbeziehung ausgewiesener Experten für fortlaufende Werke zu bilden, die sich mit diesem Problem beschäftigen soll. Für das IFLA Multilingual Dictionary of Cataloguing Terms and Concepts - MulDiCat' konnten die Richtlinien für die Eingabe in die Datenbank fertig gestellt und erforderliche Änderungen in der Datenbank implementiert werden. Die Datenbank dieses IFLA-Projekts enthält mittlerweile alle englischsprachigen Definitionen des AACR2-Glossars, die deutschen Übersetzungen der AACR2-Glossar-Definitionen sowie alle ISBD-Definitionen. Im nächsten Schritt sollen Einträge für die FRBR-Terminologie ergänzt werden. Ebenso sollen Ergänzungen zu den englischen Einträgen vorgenommen werden (aus AACR, ISBD, FRBR und weiteren IFLA-Publikationen). Die Guidelines for OPAC Displays (Richtlinien zur Präsentation von Suchergebnissen im OPAC) stehen nach der Durchführung des weltweiten Stellungnahmeverfahrens zur Veröffentlichung im IFLAnet bereit. Die Working Group an OPAC Displays hat damit ihre Arbeit beendet.
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Die Working Group an Guidelines for Multilingual Thesauri hat ihre Arbeit abgeschlossen, die Richtlinien werden Ende 2004 im IFLAnet zur Verfügung stehen. Die 2003 ins Leben gerufene Arbeitsgruppe zu Mindeststandards der Inhaltserschließung in Nationalbibliographien hat sich in Absprache mit den Mitgliedern des Standing Committee auf den Namen "Guidelines for minimal requirements for subject access by national bibliographic agencies" verständigt. Als Grundlage der zukünftigen Arbeit soll der "Survey an Subject Heading Languages Used in National Libraries and Bibliographies" von Magda HeinerFreiling dienen. Davon ausgehend soll eruiert werden, welche Arten von Medienwerken mit welchen Instrumentarien und in welcher Tiefe erschlossen werden. Eine weitere Arbeitsgruppe der Sektion befasst sich mit dem sachlichen Zugriff auf Netzpublikationen (Working Group an Subject Access to Web Resources). Die Veranstaltung "Implementation and adaption of global tools for subject access to local needs" fand regen Zuspruch. Drei Vortragende zeigten auf, wie in ihrem Sprachgebiet die Subject Headings der Library of Congress (LoC) übernommen werden (Development of a Spanish subject heading list und Subject indexing in Sweden) bzw. wie sich die Zusammenarbeit mit der LoC gestalten lässt, um den besonderen terminologischen Bedürfnissen eines Sprach- und Kulturraums außerhalb der USA Rechnung zu tragen (The SACO Program in Latin America). Aus deutscher Sicht verdiente der Vortrag "Subject indexing between international standards and local context - the Italian case" besondere Beachtung. Die Entwicklung eines Regelwerks zur verbalen Sacherschließung und die Erarbeitung einer italienischen Schlagwortnormdatei folgen nämlich erklärtermaßen der deutschen Vorgehensweise mit RSWK und SWD.
  13. Weiss, B.: Metadaten für Online-Monographien und Online-Zeitschriften (2001) 0.00
    0.00212503 = product of:
      0.031875446 = sum of:
        0.031875446 = product of:
          0.06375089 = sum of:
            0.06375089 = weight(_text_:online in 6491) [ClassicSimilarity], result of:
              0.06375089 = score(doc=6491,freq=4.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.6638847 = fieldWeight in 6491, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6491)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
  14. Bohne-Lang, A.: Semantische Metadaten für den Webauftritt einer Bibliothek (2016) 0.00
    0.0017551646 = product of:
      0.026327467 = sum of:
        0.026327467 = weight(_text_:web in 3337) [ClassicSimilarity], result of:
          0.026327467 = score(doc=3337,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25496176 = fieldWeight in 3337, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
      0.06666667 = coord(1/15)
    
    Abstract
    Das Semantic Web ist schon seit über 10 Jahren viel beachtet und hat mit der Verfügbarkeit von Resource Description Framework (RDF) und den entsprechenden Ontologien einen großen Sprung in die Praxis gemacht. Vertreter kleiner Bibliotheken und Bibliothekare mit geringer Technik-Affinität stehen aber im Alltag vor großen Hürden, z.B. bei der Frage, wie man diese Technik konkret in den eigenen Webauftritt einbinden kann: man kommt sich vor wie Don Quijote, der versucht die Windmühlen zu bezwingen. RDF mit seinen Ontologien ist fast unverständlich komplex für Nicht-Informatiker und somit für den praktischen Einsatz auf Bibliotheksseiten in der Breite nicht direkt zu gebrauchen. Mit Schema.org wurde ursprünglich von den drei größten Suchmaschinen der Welt Google, Bing und Yahoo eine einfach und effektive semantische Beschreibung von Entitäten entwickelt. Aktuell wird Schema.org durch Google, Microsoft, Yahoo und Yandex weiter gesponsert und von vielen weiteren Suchmaschinen verstanden. Vor diesem Hintergrund hat die Bibliothek der Medizinischen Fakultät Mannheim auf ihrer Homepage (http://www.umm.uni-heidelberg.de/bibl/) verschiedene maschinenlesbare semantische Metadaten eingebettet. Sehr interessant und zukunftsweisend ist die neueste Entwicklung von Schema.org, bei der man eine 'Library' (https://schema.org/Library) mit Öffnungszeiten und vielem mehr modellieren kann. Ferner haben wir noch semantische Metadaten im Open Graph- und Dublin Core-Format eingebettet, um alte Standards und Facebook-konforme Informationen maschinenlesbar zur Verfügung zu stellen.
    Theme
    Semantic Web
  15. Koch, T.; Seiffert, F.; Wätjen, H.-J.: Informationen im Web anbieten und wiederfinden (1998) 0.00
    0.0017375242 = product of:
      0.026062861 = sum of:
        0.026062861 = weight(_text_:web in 1840) [ClassicSimilarity], result of:
          0.026062861 = score(doc=1840,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25239927 = fieldWeight in 1840, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1840)
      0.06666667 = coord(1/15)
    
  16. Oehlschläger, S.: Abschlussworkshop des Projektes META-LIB und 1. Metadaten-Workshop der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek : Metadaten - Alter Wein in neuen Schläuchen? (2003) 0.00
    0.0017375242 = product of:
      0.026062861 = sum of:
        0.026062861 = weight(_text_:web in 1758) [ClassicSimilarity], result of:
          0.026062861 = score(doc=1758,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25239927 = fieldWeight in 1758, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1758)
      0.06666667 = coord(1/15)
    
    Abstract
    Die seit Mitte der goer Jahre des letzten Jahrhunderts durch das Internet und vor allem durch das World Wide Web (WWW) entstandenen neuen Kommunikations- und Publikationsmöglichkeiten stellen die mit der Sammlung, Erschließung und Nutzbarmachung von Veröffentlichungen beauftragten wissenschaftlichen Bibliotheken vor neue Herausforderungen. Netzpublikationen erfordern die Überprüfung und Anpassung bestehender Methoden und Geschäftsgänge. Neben den bibliothekarischen Verfahren haben sich im WWW neue Vorgehensweisen herausgebildet. Um die Suche, die Identifikation und den Zugriff auf Netzpublikationen zu unterstützen, werden strukturierte Daten beigegeben: Metadaten. Außer den zum Auffinden der Ressourcen notwendigen Metadaten spielen weitere Arten von Metadaten für Netzpublikationen eine zunehmend wichtige Rolle.
  17. Hengel, C.: Normdaten und Metadaten : die Idee eines internationalen authority file (2003) 0.00
    0.0017117503 = product of:
      0.025676252 = sum of:
        0.025676252 = product of:
          0.051352505 = sum of:
            0.051352505 = weight(_text_:recherche in 1763) [ClassicSimilarity], result of:
              0.051352505 = score(doc=1763,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.29942897 = fieldWeight in 1763, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1763)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Normdaten sind Metadaten besonderer Oualität: Metadaten zu Metadaten. In einem getrennt vom Metadaten-Set zur einzelnen Publikation gebildeten Normdaten-Satz werden die unterschiedlichen in den Publikationen verwendeten Namensformen bzw. Bezeichnungen für dasselbe Objekt zusammengeführt und normiert. Durch die Verwendung von Normdaten als Metadaten wird kontrolliert und sichergestellt, dass z. B. für Autoren, Urheber, Verleger, Sachinhalte etc. gleich bleibende, identische Sucheinstiege und Zugriffspunkte gebildet werden (Authority Control). Für die Recherche wirkt sich die Normierung so aus, dass die zugehörigen Publikationen über alle im Normdatensatz beinhalteten Namensformen und Bezeichnungen gefunden werden können. Durch die Angabe von Attributen und Relationen zu den einzelnen Objekten werden zudem zusätzliche, vernetzte Zugriffspunkte bereitgestellt. Normdaten sind damit ideal zur Bildung von semantischen Navigationsnetzen für die Suche und den Zugriff auf Publikationen und andere Objekte geeignet. Das standardisierte Vokabular und das Nummernsystem einer Normdatei hat aber nur im eigenen Anwendungsbereich Gültigkeit, und die gemeinsame Nutzung von Titeldaten kann durch die Nutzung unterschiedlicher Normdateien behindert werden. Die IFLA-Arbeitsgruppe FRANAR hat mit der Vision eines gemeinsamen Virtuellen Authority File ein Modell entwickelt, wie im Bibliothekswesen Interoperabilität zwischen den nationalen Normdateien hergestellt werden kann. Um die Realisierbarkeit eines solchen Vorhabens nachzuweisen, haben die Library of Congress, OCLC und Die Deutsche Bibliothek ein gemeinsames Projekt vereinbart, in dem exemplarisch für den Bereich der Personennormdaten ein VIAF (Virtual International Authority File) aufgebaut werden soll.
  18. Kamke, H.-U.; Zimmermann, K.: Metadaten und Online-Learning (2003) 0.00
    0.0014872111 = product of:
      0.022308165 = sum of:
        0.022308165 = product of:
          0.04461633 = sum of:
            0.04461633 = weight(_text_:online in 1829) [ClassicSimilarity], result of:
              0.04461633 = score(doc=1829,freq=6.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.4646225 = fieldWeight in 1829, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1829)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Metadaten dienen der Beschreibung von Online-Ouellen. Online-Learning braucht fachspezifische Materialien. In diesem Artikel wird die Schnittmenge der beiden betrachtet. Zum einen wird ein Überblick über die Metadaten Standards im Bildungsbereich gegeben, zum anderen werden Beispiele von Portalen angeführt, die (frei verfügbare) Materialien samt Metadatenset anbieten.
  19. Hoffmann, L.: Metadaten von Internetressourcen und ihre Integrierung in Bibliothekskataloge (1998) 0.00
    0.0014289691 = product of:
      0.021434534 = sum of:
        0.021434534 = product of:
          0.04286907 = sum of:
            0.04286907 = weight(_text_:22 in 1032) [ClassicSimilarity], result of:
              0.04286907 = score(doc=1032,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.38690117 = fieldWeight in 1032, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1032)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    22. 5.1998 18:45:36
  20. Essen, F. von: Metadaten - neue Perspektiven für die Erschließung von Netzpublikationen in Bibliotheken : Erster META-LIB-Workshop in Göttingen (1998) 0.00
    0.0014289691 = product of:
      0.021434534 = sum of:
        0.021434534 = product of:
          0.04286907 = sum of:
            0.04286907 = weight(_text_:22 in 2275) [ClassicSimilarity], result of:
              0.04286907 = score(doc=2275,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.38690117 = fieldWeight in 2275, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2275)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Content
    Bericht über den Workshop, der am 22. u. 23.6.98 in der SUB Göttingen stattfand