Search (32 results, page 1 of 2)

  • × type_ss:"r"
  1. Gorbacevskaja, N.; Novikiva, E.: Entwicklung der Katalogisierung in der UDSSR (1960) 0.01
    0.013933174 = product of:
      0.16719809 = sum of:
        0.16719809 = weight(_text_:katalogisierung in 3493) [ClassicSimilarity], result of:
          0.16719809 = score(doc=3493,freq=2.0), product of:
            0.1651162 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.02882525 = queryNorm
            1.0126086 = fieldWeight in 3493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.125 = fieldNorm(doc=3493)
      0.083333336 = coord(1/12)
    
  2. Krause, J.: Standardisierung von der Heterogenität her denken : zum Entwicklungsstand bilateraler Transferkomponenten für digitale Fachbibliotheken (2003) 0.01
    0.012749845 = product of:
      0.15299813 = sum of:
        0.15299813 = weight(_text_:standardisierung in 1863) [ClassicSimilarity], result of:
          0.15299813 = score(doc=1863,freq=6.0), product of:
            0.19598424 = queryWeight, product of:
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.02882525 = queryNorm
            0.7806655 = fieldWeight in 1863, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
      0.083333336 = coord(1/12)
    
    Abstract
    Lösungen für die Probleme beim Aufbau fachwissenschaftlicher Informationsangebote im Web führen weit über die bisher gewohnten Denkweisen von Informationszentren und Bibliothekaren hinaus. Die diskutierte Leitlinie "Standardisierung von der Heterogenität her zu denken" charakterisiert den Wandel am deutlichsten. Er ist nicht nur technologisch, sondern inhaltlich-konzeptuell. Die traditionellen Methoden der Standardisierung reichen nicht mehr aus, die auch im Web-Kontext angestrebte Interoperabilität und Datenkonsistenz aufrecht zu erhalten. Die Forschungs- und Entwicklungsabteilung des IZ Sozialwissenschaften hat in den letzten Jahren die theoretischen Grundlagen dieser Sichtweise auf die Standardisierungsprobleme und ihre praktische Umsetzung in verschiedenen Projekten zusammen mit unterschiedlichen Partnern bearbeitet. Der im Folgenden dargestellte Stand spiegelt das Ergebnis der Entwicklung der letzten sechs Jahre wider und fasst die realisierten Teilkomponenten solch einer Modellsicht zusammen. Das bisher Erreichte bietet schon heute erste Ansätze, die das konzeptuelle Problem unterschiedlichster Inhaltserschließungen im Kontext der heutigen digitalen Fachbibliotheken, Informationsverbünde und Fachportale zumindest partiell lösen.
  3. Möhr, M.: Einige Begriffe aus der Informationsökonomie und Benutzerforschung : redaktionell überarb. Fassung (1982) 0.01
    0.010672247 = product of:
      0.12806696 = sum of:
        0.12806696 = weight(_text_:internationale in 2910) [ClassicSimilarity], result of:
          0.12806696 = score(doc=2910,freq=2.0), product of:
            0.16686372 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.02882525 = queryNorm
            0.76749426 = fieldWeight in 2910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.09375 = fieldNorm(doc=2910)
      0.083333336 = coord(1/12)
    
    Imprint
    Frankfurt : IDD Verlag für internationale Dokumentation, Flach
  4. Krause, J.: Integration von Ansätzen neuronaler Netzwerke in die Systemarchitektur von ViBSoz und CARMEN (2001) 0.01
    0.0063030734 = product of:
      0.07563688 = sum of:
        0.07563688 = weight(_text_:kooperation in 1698) [ClassicSimilarity], result of:
          0.07563688 = score(doc=1698,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.4504865 = fieldWeight in 1698, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
      0.083333336 = coord(1/12)
    
    Abstract
    Neben Crosskonkordanzen, qualitativ-deduktiven Methoden und statistischen Verfahren gehört zu den Grundstrategien der Behandlung semantischer Heterogenität auch der Einsatz neuronaler Netze in Transfermodulen zwischen Dokumentenbeständen mit unterschiedlichen Inhaltserschließungssystemen. Sowohl die Frage, welches Netzwerkmodell am erfolgsversprechendsten ist, als auch die Frage, ob neuronale Netze im Kontext integrierter Fachinformationssysteme in der Praxis einen Mehrwert erbringen können, ist bisher in der Forschung kaum behandelt worden. Deshalb wurde diese Thematik in einer Kooperation vom IZ mit der Universität Hildesheim im Rahmen eines Promotionsvorhabens (Mandl, T.) erforscht
  5. Grazia Colonia; Dimmler, E.; Dresel, R.; Messner, C.; Krobath, A.; Petz, S.; Sypien, M.; Boxen, P. van; Harders, M.; Heuer, D.; Jordans, I.; Juchem, K.; Linnertz, M.; Mittelhuber, I.; Schwammel, S.; Schlögl, C.; Stock, W.G.: Informationswissenschaftliche Zeitschriften in szientometrischer Analyse (2002) 0.01
    0.006225477 = product of:
      0.07470572 = sum of:
        0.07470572 = weight(_text_:internationale in 1075) [ClassicSimilarity], result of:
          0.07470572 = score(doc=1075,freq=2.0), product of:
            0.16686372 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.02882525 = queryNorm
            0.44770497 = fieldWeight in 1075, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
      0.083333336 = coord(1/12)
    
    Abstract
    In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen).
  6. Mutschke, P.: Autorennetzwerke : Verfahren zur Netzwerkanalyse als Mehrwertdienste für Informationssysteme (2004) 0.01
    0.005402634 = product of:
      0.06483161 = sum of:
        0.06483161 = weight(_text_:kooperation in 4050) [ClassicSimilarity], result of:
          0.06483161 = score(doc=4050,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.3861313 = fieldWeight in 4050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.046875 = fieldNorm(doc=4050)
      0.083333336 = coord(1/12)
    
    Abstract
    Virtuelle Bibliotheken enthalten eine Fülle an Informationen, die in ihrer Vielfalt und Tiefe von Standardsuchmaschinen nicht erschöpfend erfasst wird. Der Arbeitsbericht informiert über Entwicklungen am IZ, die darauf abzielen, Wissen über das Interaktionsgeschehen in wissenschaftlichen Communities und den sozialen Status ihrer Akteure für das Retrieval auszunutzen. Grundlage hierfür sind soziale Netzwerke, die sich durch Kooperation der wissenschaftlichen Akteure konstituieren und in den Dokumenten der Datenbasis z.B. als Koautorbeziehungen repräsentiert sind (Autorennetzwerke). Die in dem Bericht beschriebenen Studien zur Small-World-Topologie von Autorennetzwerken zeigen, dass diese Netzwerke ein erhebliches Potential für Informationssysteme haben. Der Bericht diskutiert Szenarios, die beschreiben, wie Autorennetzwerke und hier insbesondere das Konzept der Akteurszentralität für die Informationssuche in Datenbanken sinnvoll genutzt werden können. Kernansatz dieser Retrievalmodelle ist die Suche nach Experten und das Ranking von Dokumenten auf der Basis der Zentralität von Autoren in Autorennetzwerken.
  7. Bartz, T.; Prestel, J.; Wagner, H.: Problemstellungen, Herausforderungen und Aufgabenbereiche für Bibliotheken als Informationsvermittler und -aufbereiter in der wissenschaftlichen Kommunikation im Umfeld des Internet : Endbericht der Arbeitsgruppe Virtuelle Bibliotheken (1995) 0.01
    0.0053361235 = product of:
      0.06403348 = sum of:
        0.06403348 = weight(_text_:internationale in 2393) [ClassicSimilarity], result of:
          0.06403348 = score(doc=2393,freq=2.0), product of:
            0.16686372 = queryWeight, product of:
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.02882525 = queryNorm
            0.38374713 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.788804 = idf(docFreq=367, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
      0.083333336 = coord(1/12)
    
    Abstract
    Durch die Möglichkeiten der Einbindung von Bibliotheken in internationale Kommunikationsnetzwerke wie dem Internet zeichnen sich völlig neue Potentiale für die Vermittlung und Distribution von Wissen ab. Die globale Vernetzung verbindet die elektronischen Bestände aller angeschlossenen Bibliotheken, Datenbankanbieter oder sonstiger Informationsprodutzenten zu einer einzigen 'virtuellen Bibliothek' - der alte Traum von einer umfassenden Enzyklopädie des Weltwissens scheint damit in greifbare Nähe zu rücken. Neue Formen von Informationsprodukten entstehen und damit gleichzeitig der Bedarf nach veränderten Methoden und Regeln der Wissenserschließung, -aufbereitung und -verteilung. Die direkte Zugänglichmachung von Dokumenten in elektronischer Form verändert auf gravierende Weise die Gepflogenheiten unserer traditionellen 'Informationskultur'. Mit der Dematerialisierung des Wissens, d.h. mit der Unabhängigkeit des Rohstoffs 'Wissen' von festgelegten Formaten und Trägermedien stellt vielleicht auch das 'Gebäude' Bibliothek in seiner bisherigen physischen Präsenz bald einen Anachronismus dar.
  8. Nentwig, L.: Semantische Interoperabilität : Bd.3: Qualitätssicherung von Spezifikationen (2010) 0.01
    0.0050936528 = product of:
      0.06112383 = sum of:
        0.06112383 = weight(_text_:kooperation in 4849) [ClassicSimilarity], result of:
          0.06112383 = score(doc=4849,freq=4.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.3640481 = fieldWeight in 4849, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.03125 = fieldNorm(doc=4849)
      0.083333336 = coord(1/12)
    
    Abstract
    Das SIE-Vorgehen ist für viele Umfelder geeignet: Sowohl Unternehmen mit internen Spezifikationsaktivitäten als auch Organisationen, die Standards entwickeln, können wesentlich vom SIE profitieren. Ein zentraler Aspekt ist, dass das beschriebene Vorgehen auf eine gemeinschaftliche Entwicklung von Spezifikationen durch eine offene1 und gleichberechtigte Community ausgerichtet ist. »Community« bezeichnet die Gesamtheit aller an der Entwicklung einer Spezifikation beteiligten Personen und Organisationen. Die einzelnen beteiligten Personen und Organisationen werden wiederum durch verschiedene Rollen beschrieben. Durch ihre jeweiligen Sichten ergänzen sich ihre Beiträge und tragen so zur Steigerung der Qualität bei. Durch die aktive und kontinuierliche Einbindung der Community sowie den integrierten Qualitätsmanagementprozess werden die Risiken eines Scheiterns reduziert und gleichzeitig die Chancen auf eine qualitativ hochwertige, akzeptierte und nutzbare Spezifikation deutlich gesteigert. Dem SIE-Vorgehen liegen drei Stützpfeiler als Richtlinie zugrunde, welche von der Community unbedingt eingehalten und verinnerlicht werden sollten: Kooperation - Vertrauen - Offenheit.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
  9. Nentwig, L.: Semantische Interoperabilität : Bd.1: Eine technische Einführung (2010) 0.00
    0.0045021954 = product of:
      0.054026343 = sum of:
        0.054026343 = weight(_text_:kooperation in 4847) [ClassicSimilarity], result of:
          0.054026343 = score(doc=4847,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.3217761 = fieldWeight in 4847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4847)
      0.083333336 = coord(1/12)
    
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
  10. Nentwig, L.: Semantische Interoperabilität : Bd.2: Semantische Konflikte (2010) 0.00
    0.0045021954 = product of:
      0.054026343 = sum of:
        0.054026343 = weight(_text_:kooperation in 4848) [ClassicSimilarity], result of:
          0.054026343 = score(doc=4848,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.3217761 = fieldWeight in 4848, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
      0.083333336 = coord(1/12)
    
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
  11. Forschen für die Internet-Gesellschaft : Trends, Technologien, Anwendungen, Trends und Handlungsempfehlungen 2008 des Feldafinger Kreises (2008) 0.00
    0.0036017564 = product of:
      0.043221075 = sum of:
        0.043221075 = weight(_text_:kooperation in 2337) [ClassicSimilarity], result of:
          0.043221075 = score(doc=2337,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.25742087 = fieldWeight in 2337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
      0.083333336 = coord(1/12)
    
    Abstract
    Ausgangslage: Im April 2000 haben führende Repräsentanten der deutschen Wissenschaftsorganisationen und der Bundesverband der Deutschen Industrie (BDI) beschlossen, gemeinsame Strategien zur Stärkung des Standorts Deutschland im globalen Innovationswettbewerb zu entwickeln. Weil entscheidende Impulse für Innovationen von der Zusammenarbeit zwischen öffentlicher Forschung und privaten Unternehmen ausgehen, muss dieser Prozess durch mehr Autonomie und Wettbewerb von Hochschulen und Forschungsinstituten und durch intensive Kommunikation und Kooperation weiter verbessert werden. Ziel sollte sein, die Partner aus unterschiedlichen wissenschaftlichen Disziplinen und aus allen Branchen der Wirtschaft noch besser ins Gespräch zu bringen, um Defizite bei der Umsetzung von Forschungsergebnissen in innovative Produkte, Dienste und Verfahren abzubauen. Um den Dialog zwischen Wissenschaft und Gesellschaft zu intensivieren, haben die Spitzenorganisationen von Wissenschaft und Industrie gemeinsame Symposien auf den Gebieten "Energie", "Lebenswissenschaften" und "Internet-Gesellschaft" beschlossen. Von diesen Symposien sollen Impulse für die Ermittlung des künftigen Forschungsbedarfs und entsprechende Handlungsempfehlungen für diese Gebiete höchster volkswirtschaftlicher Relevanz ausgehen. Stellvertretend für die Wissenschaftsorganisationen hat die Fraunhofer-Gesellschaft gemeinsam mit dem BDI die Ausrichtung des Symposiums zur Internet-Gesellschaft organisiert und finanziell unterstützt.
  12. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.00
    0.0036017564 = product of:
      0.043221075 = sum of:
        0.043221075 = weight(_text_:kooperation in 4250) [ClassicSimilarity], result of:
          0.043221075 = score(doc=4250,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.25742087 = fieldWeight in 4250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.083333336 = coord(1/12)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  13. AG KIM Gruppe Titeldaten DINI: Empfehlungen zur RDF-Repräsentation bibliografischer Daten (2014) 0.00
    0.0036017564 = product of:
      0.043221075 = sum of:
        0.043221075 = weight(_text_:kooperation in 4668) [ClassicSimilarity], result of:
          0.043221075 = score(doc=4668,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.25742087 = fieldWeight in 4668, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.03125 = fieldNorm(doc=4668)
      0.083333336 = coord(1/12)
    
    Abstract
    In den letzten Jahren wurde eine Vielzahl an Datensets aus Kultur- und Wissenschaftseinrichtungen als Linked Open Data veröffentlicht. Auch das deutsche Bibliothekswesen hat sich aktiv an den Entwicklungen im Bereich Linked Data beteiligt. Die zuvor lediglich in den Bibliothekskatalogen vorliegenden Daten können weiteren Sparten geöffnet und so auf vielfältige Weise in externe Anwendungen eingebunden werden. Gemeinsames Ziel bei der Veröffentlichung der Bibliotheksdaten als Linked Data ist außerdem, Interoperabilität und Nachnutzbarkeit zu ermöglichen und sich auf diese Weise stärker mit anderen Domänen außerhalb der Bibliothekswelt zu vernetzen. Es bestehen sowohl Linked-Data-Services einzelner Bibliotheken als auch der deutschen Bibliotheksverbünde. Trotz ihres gemeinsamen Ziels sprechen die bestehenden Services nicht die gleiche Sprache, da sie auf unterschiedlichen Modellierungen basieren. Um die Interoperabilität dieser Datenquellen zu gewährleisten, sollten die Dienste künftig einer einheitlichen Modellierung folgen. Vor diesem Hintergrund wurde im Januar 2012 eine Arbeitsgruppe gegründet, in der alle deutschen Bibliotheksverbünde, die Deutsche Nationalbibliothek sowie einige weitere interessierte und engagierte Kolleginnen und Kollegen mit entsprechender Expertise vertreten sind. Die Gruppe Titeldaten agiert seit April 2012 als Untergruppe des Kompetenzzentrums Interoperable Metadaten (DINI-AG KIM). Die Moderation und Koordination liegt bei der Deutschen Nationalbibliothek. Im Dezember 2012 schloss sich auch der OBVSG der Arbeitsgruppe an. Die Schweizerische Nationalbibliothek folgte im Mai 2013. Vorliegende Empfehlungen sollen zu einer Harmonisierung der RDFRepräsentationen von Titeldaten im deutschsprachigen Raum beitragen und so möglichst einen Quasi-Standard etablieren. Auch international wird an der Herausforderung gearbeitet, die bestehenden bibliothekarischen Strukturen in die heute zur Verfügung stehenden Konzepte des Semantic Web zu überführen und ihren Mehrwert auszuschöpfen. Die neuesten internationalen Entwicklungen im Bereich der Bereitstellung bibliografischer Daten im Semantic Web wie die Bibliographic Framework Transition Initiative der Library of Congress (BIBFRAME) haben ebenfalls das Ziel, ein Modell zur RDF-Repräsentation bibliothekarischer Daten bereitzustellen. Die Gruppe Titeldaten beobachtet diese Entwicklungen und beabsichtigt, die Erfahrungen und Anforderungen der deutschsprachigen Bibliothekswelt mit einzubringen. Dabei werden einerseits international erarbeitete Empfehlungen aufgegriffen und andererseits Impulse aus der nationalen Kooperation dort eingebracht. Die hier verwendeten Properties könnten z. B. als Grundlage für ein Mapping zu BIBFRAME dienen.
  14. Dzeyk, W.: Effektiv und nutzerfreundlich : Einsatz von semantischen Technologien und Usability-Methoden zur Verbesserung der medizinischen Literatursuche (2010) 0.00
    0.0031515367 = product of:
      0.03781844 = sum of:
        0.03781844 = weight(_text_:kooperation in 4416) [ClassicSimilarity], result of:
          0.03781844 = score(doc=4416,freq=2.0), product of:
            0.16790043 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02882525 = queryNorm
            0.22524326 = fieldWeight in 4416, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
      0.083333336 = coord(1/12)
    
    Abstract
    In der vorliegenden Arbeit werden die Ergebnisse des MorphoSaurus-Projekts der Deutschen Zentralbibliothek für Medizin (ZB MED) vorgestellt. Ziel des Forschungsprojekts war die substanzielle Verbesserung des Information-Retrievals der medizinischen Suchmaschine MEDPILOT mithilfe computerlinguistischer Ansätze sowie die Optimierung der Gebrauchstauglichkeit (Usability) der Suchmaschinenoberfläche. Das Projekt wurde in Kooperation mit der Averbis GmbH aus Freiburg im Zeitraum von Juni 2007 bis Dezember 2008 an der ZB MED in Köln durchgeführt. Ermöglicht wurde die Realisierung des Projekts durch eine Förderung des Paktes für Forschung und Innovation. Während Averbis die MorphoSaurus-Technologie zur Verarbeitung problematischer Sprachaspekte von Suchanfragen einbrachte und wesentliche Datenbanken der ZB MED in ein Testsystem mit moderner Suchmaschinentechnologie implementierte, evaluierte ein Team der ZB MED das Potenzial dieser Technologie. Neben einem Vergleich der Leistungsfähigkeit zwischen der bisherigen MEDPILOT-Suche und der neuen Sucharchitektur wurde ein Benchmarking mit konkurrierenden Suchmaschinen wie PubMed, Scirus, Google und Google Scholar sowie GoPubMed durchgeführt. Für die Evaluation wurden verschiedene Testkollektionen erstellt, deren Items bzw. Suchphrasen aus einer Inhaltsanalyse realer Suchanfragen des MEDPILOT-Systems gewonnen wurden. Eine Überprüfung der Relevanz der Treffer der Testsuchmaschine als wesentliches Kriterium für die Qualität der Suche zeigte folgendes Ergebnis: Durch die Anwendung der MorphoSaurus-Technologie ist eine im hohen Maße unabhängige Verarbeitung fremdsprachlicher medizinischer Inhalte möglich geworden. Darüber hinaus zeigt die neue Technik insbesondere dort ihre Stärken, wo es um die gleichwertige Verarbeitung von Laien- und Expertensprache, die Analyse von Komposita, Synonymen und grammatikalischen Varianten geht. Zudem sind Module zur Erkennung von Rechtschreibfehlern und zur Auflösung von Akronymen und medizinischen Abkürzungen implementiert worden, die eine weitere Leistungssteigerung des Systems versprechen. Ein Vergleich auf der Basis von MEDLINE-Daten zeigte: Den Suchmaschinen MED-PILOT, PubMed, GoPubMed und Scirus war die Averbis-Testsuchumgebung klar überlegen. Die Trefferrelevanz war größer, es wurden insgesamt mehr Treffer gefunden und die Anzahl der Null-Treffer-Meldungen war im Vergleich zu den anderen Suchmaschinen am geringsten.
  15. Huemer, H.: Semantische Technologien : Analyse zum Status quo, Potentiale und Ziele im Bibliotheks-, Informations- und Dokumentationswesen (2006) 0.00
    0.0030788258 = product of:
      0.03694591 = sum of:
        0.03694591 = weight(_text_:katalogisierung in 641) [ClassicSimilarity], result of:
          0.03694591 = score(doc=641,freq=4.0), product of:
            0.1651162 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.02882525 = queryNorm
            0.22375701 = fieldWeight in 641, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
      0.083333336 = coord(1/12)
    
    BK
    06.70 / Katalogisierung / Bestandserschließung
    Classification
    06.70 / Katalogisierung / Bestandserschließung
  16. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.00
    0.0017357438 = product of:
      0.020828925 = sum of:
        0.020828925 = product of:
          0.062486775 = sum of:
            0.062486775 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
              0.062486775 = score(doc=7383,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.61904186 = fieldWeight in 7383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7383)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Date
    22. 2.1997 19:46:30
  17. Wheelbarger, J.J.; Clouse, R.W.: ¬A comparision of a manual library reclassification project with a computer automated library reclassification project (1975) 0.00
    0.001518776 = product of:
      0.01822531 = sum of:
        0.01822531 = product of:
          0.05467593 = sum of:
            0.05467593 = weight(_text_:22 in 3473) [ClassicSimilarity], result of:
              0.05467593 = score(doc=3473,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.5416616 = fieldWeight in 3473, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3473)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Pages
    22 S
  18. Matthews, J.R.; Parker, M.R.: Local Area Networks and Wide Area Networks for libraries (1995) 0.00
    0.001518776 = product of:
      0.01822531 = sum of:
        0.01822531 = product of:
          0.05467593 = sum of:
            0.05467593 = weight(_text_:22 in 2656) [ClassicSimilarity], result of:
              0.05467593 = score(doc=2656,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.5416616 = fieldWeight in 2656, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2656)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Date
    30.11.1995 20:53:22
  19. Information for a new age : redefining the librarian (1995) 0.00
    0.0013018078 = product of:
      0.015621694 = sum of:
        0.015621694 = product of:
          0.04686508 = sum of:
            0.04686508 = weight(_text_:22 in 2538) [ClassicSimilarity], result of:
              0.04686508 = score(doc=2538,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.46428138 = fieldWeight in 2538, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2538)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Footnote
    Rez. in: Journal of academic librarianship 22(1996) no.2, S.147 (A. Schultis)
  20. Cleverdon, C.W.: ASLIB Cranfield Research Project : Report on the first stage of an investigation into the comparative efficiency of indexing systems (1960) 0.00
    0.0013018078 = product of:
      0.015621694 = sum of:
        0.015621694 = product of:
          0.04686508 = sum of:
            0.04686508 = weight(_text_:22 in 6158) [ClassicSimilarity], result of:
              0.04686508 = score(doc=6158,freq=2.0), product of:
                0.100941114 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02882525 = queryNorm
                0.46428138 = fieldWeight in 6158, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6158)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Footnote
    Rez. in: College and research libraries 22(1961) no.3, S.228 (G. Jahoda)

Languages

  • d 21
  • e 10

Types