Search (133 results, page 1 of 7)

  • × type_ss:"r"
  1. Grazia Colonia; Dimmler, E.; Dresel, R.; Messner, C.; Krobath, A.; Petz, S.; Sypien, M.; Boxen, P. van; Harders, M.; Heuer, D.; Jordans, I.; Juchem, K.; Linnertz, M.; Mittelhuber, I.; Schwammel, S.; Schlögl, C.; Stock, W.G.: Informationswissenschaftliche Zeitschriften in szientometrischer Analyse (2002) 0.05
    0.051949468 = product of:
      0.12987366 = sum of:
        0.098322175 = weight(_text_:van in 1075) [ClassicSimilarity], result of:
          0.098322175 = score(doc=1075,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.43129233 = fieldWeight in 1075, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
        0.031551484 = weight(_text_:der in 1075) [ClassicSimilarity], result of:
          0.031551484 = score(doc=1075,freq=8.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.34551817 = fieldWeight in 1075, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
      0.4 = coord(2/5)
    
    Abstract
    In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen).
  2. Hochschule im digitalen Zeitalter : Informationskompetenz neu begreifen - Prozesse anders steuern (2012) 0.05
    0.04675108 = product of:
      0.07791846 = sum of:
        0.022678226 = weight(_text_:b in 506) [ClassicSimilarity], result of:
          0.022678226 = score(doc=506,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.15657827 = fieldWeight in 506, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.044162877 = weight(_text_:der in 506) [ClassicSimilarity], result of:
          0.044162877 = score(doc=506,freq=48.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.4836247 = fieldWeight in 506, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.0110773565 = product of:
          0.022154713 = sum of:
            0.022154713 = weight(_text_:22 in 506) [ClassicSimilarity], result of:
              0.022154713 = score(doc=506,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.15476047 = fieldWeight in 506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Abstract
    Die rasanten Veränderungen der Kommunikation und der daraus resultierende soziale und kulturelle Wandel betreffen auch die Hochschulen in besonderer Weise. Hochschulleitungen haben hier bereits schon reagiert, sie stehen aber weiterhin vor der Herausforderung, auf die Veränderungen zu reagieren und entsprechende Maßnahmen zu ergreifen. Es bedarf nicht nur einer Harmonisierung des Informationsmanagements und der Informationsinfrastruktur, sondern integrativ auch der Stärkung der Informationskompetenz auf allen Ebenen der Organisation. Da diese Herausforderung das gesamte System Hochschule betrifft, wird der Begriff der Informationskompetenz hier gegenüber seiner herkömmlichen Verwendung deutlich ausgeweitet: Es wird nicht nur die akademische Informationskompetenz betrachtet, die in Lehre und Forschung zum Tragen kommt, sondern auch die organisationsbezogene Informationskompetenz, die sich auf alle hochschulinternen Abläufe bezieht. Zugleich geht es in der Empfehlung nicht, wie es der Titelbegriff "Hochschule im digitalen Zeitalter" nahe legen könnte, um Konzepte wie das einer Netzhochschule.
    Zur Stärkung der Informationskompetenz der Studierenden ist es erforderlich, dass entsprechende Lehrangebote ausgebaut, stärker als bisher curricular verankert und möglichst flächendeckend angeboten werden. Die unterschiedlichen, von verschiedenen Akteuren zur Verfügung gestellten Lehrangebote zur Vermittlung von Informationskompetenz sollten mehr als bisher aufeinander abgestimmt und miteinander verschränkt werden. Um die Informationskompetenz aller Lehrenden zu sichern, sollten diese mehr als bisher entsprechende Fortbildungs- und Trainingsangebote wahrnehmen. Die Hochschulleitungen sollten dafür Sorge tragen, dass entsprechende attraktive Angebote zur Verfügung gestellt werden. Auch die Informationskompetenz der Forschenden muss ausgebaut werden, indem entsprechende Qualifizierungsangebote wahrgenommen und Qualifikationsmaßnahmen stärker als bisher z. B. in den Curricula der Graduierten- und Postgraduiertenausbildung verankert werden. Forschende können ihre Informationskompetenz zugleich im Rahmen von Kompetenznetzwerken stärken. Dies gilt es entsprechend seitens der Hochschulleitungen zu unterstützen. Die Hochschulleitungen sollten Strukturen und Prozesse im Rahmen eines hochschulinternen "Governance"-Prozesses verändern können. Innerhalb der Hochschulleitung muss daher eine Person für die Themen "Informationsinfrastruktur" und "Stärkung der Informationskompetenz" verantwortlich und Ansprechpartner sein. Was die Dienstleistungen angeht, wird insbesondere empfohlen, dass die Mitarbeiterinnen und Mitarbeiter der Hochschulbibliotheken und Rechenzentren ihre Kompetenzen erweitern, um die Forscherinnen und Forscher beim Datenmanagement besser unterstützen zu können.
    Die HRK sieht sich künftig für die bundesweite strategische Koordination des Handlungsfeldes "Informationskompetenz" verantwortlich. Um das Zusammenwirken an der Schnittstelle zwischen den Fakultäten bzw. Fachbereichen einerseits und den Bibliotheken und Rechenzentren andererseits zu verbessern, richtet die HRK eine Arbeitsgruppe ein, die Prozesse an der o. g. Schnittstelle jeweils mit Blick auf ausgewählte Fächer in regelmäßigen Zeitabständen begleitet und Vorschläge zur Verbesserung der Zusammenarbeit formuliert. Die Politik in Bund und Ländern sollte ihren Anteil am Aufbau solcher Strukturen leisten und die notwendigen Maßnahmen finanziell unterstützen.
    Date
    8.12.2012 17:22:26
    Issue
    Entschließung der 13. Mitgliederversammlung der HRK am 20. November 2012 in Göttingen.
  3. Sacherschließung : Zentrale Dienstleistungen und Nutzung von Fremdleistungen. Kolloquium des Dbi am 13.-14.2.1984 in Königstein (o.J.) 0.04
    0.04380588 = product of:
      0.1095147 = sum of:
        0.058919765 = weight(_text_:b in 2399) [ClassicSimilarity], result of:
          0.058919765 = score(doc=2399,freq=6.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.40680233 = fieldWeight in 2399, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=2399)
        0.05059493 = weight(_text_:der in 2399) [ClassicSimilarity], result of:
          0.05059493 = score(doc=2399,freq=28.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.55406165 = fieldWeight in 2399, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2399)
      0.4 = coord(2/5)
    
    Footnote
    Auf diesem Kolloquium wurde die Entscheidung getroffen, RSWK in der Deutschen Bibliothek für Produktion zentraler Dienstleistungen im Bereich der Sacherschließung (u.a. für die Deutsche Bibliographie) zu nutzen; vgl. den Bericht von C. Müller im Bibliotheksdienst 18(1984) u. H.D. Gebauer: DBI-Kolloquium zur Sacherschließung in: Mitteilungsblatt. Verband der Bibliotheken des Landes NW N.F. 34(1984) S.158-159. - Dieser Band wird von G. Heinrich in ihrem Beitrag in 'Neue Regelwerke zum Schlagwortkatalog' unter Nr.45 als 'im Druck' zitiert mit folgenden Beiträgen: Frankenberger, R.: Kooperative verbale Sacherschließung nach RSWK im Bayerischen Verbund; Galsterer, B. Stellenwert zentraler Sacherschließung für Öffentliche Bibliotheken; Geisselmann, F.: Aus der Arbeit der UB Augsburg an der Standardschlagwortliste; Junginger, F.: Gibt es eine tragfähige Basis für eine kooperative Sacherschließung?; Kelm, B.: Aus der Arbeit der Deutschen Bibliothek an der Standardschlagwortliste; Maaßen, B,: Die Verknüpfung der Einzelschlagwörter zu Ketten, insbesondere nach dem PRECIS-Kurzregelwerk; Pflug, G.: Die Dienstleistungen der Deutschen Bibliothek im Bereich Sacherschließung; Poll, R.: Kettenbildung nach RSWK; Rothbart, O.-R.: Die Dienstleistungen im Bereich Sacherschließung für Öffentliche Bibliotheken aus der Sicht der ekz. - Nach dem Stand der Erkenntnisse (1992) ist nicht damit zu rechnen, daß dieser Bericht jemals erscheinen wird.
  4. Floeting, H.; Gaevert, S.; Balfidan, B.; Nigdeli, A.; Riedmann, E.: Städte im Netz : Elektronische Bürger-, Stadt- und Wirtschaftsinformationssysteme der Kommunen. Ergebnisse einer Difu-Städteumfrage (1997) 0.04
    0.038031526 = product of:
      0.09507881 = sum of:
        0.06803468 = weight(_text_:b in 555) [ClassicSimilarity], result of:
          0.06803468 = score(doc=555,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.46973482 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.09375 = fieldNorm(doc=555)
        0.027044129 = weight(_text_:der in 555) [ClassicSimilarity], result of:
          0.027044129 = score(doc=555,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.29615843 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=555)
      0.4 = coord(2/5)
    
  5. Külper, U.; Will, G.: ¬Das Projekt Bücherschatz : interdisziplinäre und partizipative Entwicklung eines kindgerechten Bibliotheks-Online-Kataloges (1996) 0.04
    0.037734266 = product of:
      0.09433567 = sum of:
        0.039686892 = weight(_text_:b in 4725) [ClassicSimilarity], result of:
          0.039686892 = score(doc=4725,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.27401197 = fieldWeight in 4725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4725)
        0.054648776 = weight(_text_:der in 4725) [ClassicSimilarity], result of:
          0.054648776 = score(doc=4725,freq=24.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.5984551 = fieldWeight in 4725, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4725)
      0.4 = coord(2/5)
    
    Abstract
    Im Jahr 1995 entstand in interdisziplinärer Zusammenarbeit der Prototyp Bücherschatz, ein Bibliotheks-Online_katalog für Kinder. Beteiligt waren Studierende und eine Professorin der FH Hamburg, Fb Bibliothek und Information, ein Designer und 2 Informatikerinnen der Universität Hamburg. In diesem Bericht werden sowohl das Produkt Bücherschatz als auch der Prozeß seiner Entwicklung beschrieben. Ein Schwerpunkt liegt in der Auseinandersetzung mit theoretischen Modellen der Softwaretechnik - hier STEPS und Prototyping - und ihrer Anpassung an konkrete Projekterfordernisse. Weiterhin werden Fragen nach der Gestaltung kindgerechter Software, der Organisation eines großen Projektteams und nach der Art der Partizipation der Benutzer thematisiert. Das Gesamtprojekt wird in einen wissenschaftlichen Kontext der Informatik eingeordnet, und zentrale Erfahrungen und Erkenntnisse hinsichtlich interdisziplinärer und partizipativer Softwareentwicklung werden zusammengefaßt
    Series
    Bericht; Nr.186)(FBI-HH-B-186/96
  6. Endres-Niggemeyer, B.: Bessere Information durch Zusammenfassen aus dem WWW (1999) 0.03
    0.03256612 = product of:
      0.081415296 = sum of:
        0.045356452 = weight(_text_:b in 4496) [ClassicSimilarity], result of:
          0.045356452 = score(doc=4496,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.31315655 = fieldWeight in 4496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0625 = fieldNorm(doc=4496)
        0.03605884 = weight(_text_:der in 4496) [ClassicSimilarity], result of:
          0.03605884 = score(doc=4496,freq=8.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.3948779 = fieldWeight in 4496, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4496)
      0.4 = coord(2/5)
    
    Abstract
    Am Beispiel der Knochenmarktransplantation, eines medizinischen Spezialgebietes, wird im folgenden dargelegt, wie man BenutzerInnen eine großen Teil des Aufwandes bei der Wissensbeschaffung abnehmen kann, indem man Suchergebnisse aus dem Netz fragebezogen zusammenfaßt. Dadurch wird in zeitkritischen Situationen, wie sie in Diagnose und Therapie alltäglich sind, die Aufnahme neuen Wissens ermöglicht. Auf einen Überblick über den Stand des Textzusammenfassens und der Ontologieentwicklung folgt eine Systemskizze, in der die Informationssuche im WWW durch ein kognitiv fundiertes Zusammenfassungssystem ergänzt wird. Dazu wird eine Fach-Ontologie vorgeschlagen, die das benötigte Wissen organisiert und repräsentiert.
  7. Reiner, U.: VZG-Projekt Colibri : Bewertung von automatisch DDC-klassifizierten Titeldatensätzen der Deutschen Nationalbibliothek (DNB) (2009) 0.03
    0.03228743 = product of:
      0.08071857 = sum of:
        0.04008982 = weight(_text_:b in 2675) [ClassicSimilarity], result of:
          0.04008982 = score(doc=2675,freq=4.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.2767939 = fieldWeight in 2675, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
        0.04062875 = weight(_text_:der in 2675) [ClassicSimilarity], result of:
          0.04062875 = score(doc=2675,freq=26.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.4449227 = fieldWeight in 2675, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
      0.4 = coord(2/5)
    
    Abstract
    Das VZG-Projekt Colibri/DDC beschäftigt sich seit 2003 mit automatischen Verfahren zur Dewey-Dezimalklassifikation (Dewey Decimal Classification, kurz DDC). Ziel des Projektes ist eine einheitliche DDC-Erschließung von bibliografischen Titeldatensätzen und eine Unterstützung der DDC-Expert(inn)en und DDC-Laien, z. B. bei der Analyse und Synthese von DDC-Notationen und deren Qualitätskontrolle und der DDC-basierten Suche. Der vorliegende Bericht konzentriert sich auf die erste größere automatische DDC-Klassifizierung und erste automatische und intellektuelle Bewertung mit der Klassifizierungskomponente vc_dcl1. Grundlage hierfür waren die von der Deutschen Nationabibliothek (DNB) im November 2007 zur Verfügung gestellten 25.653 Titeldatensätze (12 Wochen-/Monatslieferungen) der Deutschen Nationalbibliografie der Reihen A, B und H. Nach Erläuterung der automatischen DDC-Klassifizierung und automatischen Bewertung in Kapitel 2 wird in Kapitel 3 auf den DNB-Bericht "Colibri_Auswertung_DDC_Endbericht_Sommer_2008" eingegangen. Es werden Sachverhalte geklärt und Fragen gestellt, deren Antworten die Weichen für den Verlauf der weiteren Klassifizierungstests stellen werden. Über das Kapitel 3 hinaus führende weitergehende Betrachtungen und Gedanken zur Fortführung der automatischen DDC-Klassifizierung werden in Kapitel 4 angestellt. Der Bericht dient dem vertieften Verständnis für die automatischen Verfahren.
  8. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.03
    0.032147307 = product of:
      0.080368266 = sum of:
        0.03605884 = weight(_text_:der in 7383) [ClassicSimilarity], result of:
          0.03605884 = score(doc=7383,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.3948779 = fieldWeight in 7383, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=7383)
        0.044309426 = product of:
          0.08861885 = sum of:
            0.08861885 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
              0.08861885 = score(doc=7383,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.61904186 = fieldWeight in 7383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7383)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Date
    22. 2.1997 19:46:30
  9. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.03
    0.028760597 = product of:
      0.07190149 = sum of:
        0.05612575 = weight(_text_:b in 4782) [ClassicSimilarity], result of:
          0.05612575 = score(doc=4782,freq=4.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.3875115 = fieldWeight in 4782, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.015775742 = weight(_text_:der in 4782) [ClassicSimilarity], result of:
          0.015775742 = score(doc=4782,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.17275909 = fieldWeight in 4782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
      0.4 = coord(2/5)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
  10. Inhaltsbezogene Suche von Bildern und Videosequenzen in digitalen multimedialen Archiven : Beiträge eines Workshops der KI'98 am 16./17.9.1998 in Bremen (1998) 0.03
    0.02849535 = product of:
      0.071238376 = sum of:
        0.039686892 = weight(_text_:b in 10) [ClassicSimilarity], result of:
          0.039686892 = score(doc=10,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.27401197 = fieldWeight in 10, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=10)
        0.031551484 = weight(_text_:der in 10) [ClassicSimilarity], result of:
          0.031551484 = score(doc=10,freq=8.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.34551817 = fieldWeight in 10, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=10)
      0.4 = coord(2/5)
    
    Abstract
    Enthält die Fachbeiträge eines Workshops zum Thema "Inhaltsbezogene Suche von Bildern und Videosequenzen in digitalen multimedialen Archiven", der am 16. u. 17.9.1998 im Rahmen der Tagung KI'98 an der Universität Bremen stattfand
    Content
    Enthält die Beiträge: SPECHT, G.: Architekturen von Multimedia-Datenbanksystemen zur Speicherung von Bildern und Videos; MALSY, M. u.a.: Unterstützung des strutkturierten Zugriffs auf MPEG Videos in einem Multimedia-Datenbankmanagementsystem; ARLT, B. u. R.W. BRAUSE: Image encoding by independent principal components; DITTMANN, J. u.a.: Objektverfolgung und Szenenerkennung in Video auf Basis von Kantendetektion; THOMAS, P.: Verteilte digitale Medienarchivsysteme für kooperative Fernsehproduktion; DAMMEYER, A. u.a.: Videoanalyse mit DiVA
  11. Lutz, B.; Moldaschl, M.: Expertensysteme und Industrielle Facharbeit : ein Gutachten über denkbare qualifikatorische Auswirkungen von Expertensystemen in der fertigenden Industrie erstellt im Auftrag der Enquete-Kommission "Technikfolgenabschätzung und -bewertung" des Deutschen Bundestages (1989) 0.03
    0.027917344 = product of:
      0.06979336 = sum of:
        0.03401734 = weight(_text_:b in 3890) [ClassicSimilarity], result of:
          0.03401734 = score(doc=3890,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.23486741 = fieldWeight in 3890, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
        0.035776023 = weight(_text_:der in 3890) [ClassicSimilarity], result of:
          0.035776023 = score(doc=3890,freq=14.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.3917808 = fieldWeight in 3890, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3890)
      0.4 = coord(2/5)
    
    Abstract
    Mit Schreiben vom 17.3.1988 wurde das Institut für Sozialwissenschaftliche Forschung von Herrn Dr. Rüttgers, MdB, Vorsitzender der Enquete-Kommission "Technikfolgenabschätzung und -bewertung" des Deutschen Bundestages, aufgefordert, ein Angebot für ein Gutachten vorzulegen, das "mögliche Auswirkungen des Einsatzes von Expertensystemen auf die Beschäftigten, die Bedürfnisse der Beschäftigten" in der fertigenden Industrie behandeln solle. Zwei weitere, gleichzeitig von anderen Wissenschaftlern zu erstellende Gutachten sollten einerseits gegenwärtige und zu erwartende Anwendungen von Expertensystemen in der fertigenden Industrie aufzeigen und andererseits Einsatzmöglichkeiten und denkbare Auswirkungen aus betrieblicher Perspektive klären. Dieses Gutachten wollte sich allerdings: - vor allem auf die qualifikatorischen Folgen der Einführung von Expertensystemen konzentrieren - und einer Vorgehensweise folgen, die keine prognostischen Aussagen, sondern lediglich eine Abschätzung des "Raumes" potentieller Wirkungen liefern konnte.
  12. Nentwig, L.: Semantische Interoperabilität : Bd.2: Semantische Konflikte (2010) 0.03
    0.026953047 = product of:
      0.06738262 = sum of:
        0.028347783 = weight(_text_:b in 4848) [ClassicSimilarity], result of:
          0.028347783 = score(doc=4848,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.19572285 = fieldWeight in 4848, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.03903484 = weight(_text_:der in 4848) [ClassicSimilarity], result of:
          0.03903484 = score(doc=4848,freq=24.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.42746788 = fieldWeight in 4848, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
      0.4 = coord(2/5)
    
    Abstract
    Prozessketten in der freien Wirtschaft oder Verwaltung sind zunehmend geprägt von einem intensiven Austausch von Dokumenten und Daten auch über die Grenzen der beteiligten Organisationen hinweg. Wie in Band 1 der White Paper-Reihe dargelegt, ist die Sicherstellung der semantischen Interoperabilität eine der zentralen Anforderungen für einen semantisch konsistenten und damit erfolgreichen Ablauf der Geschäftsprozesse. Grundlage für semantische Interoperabilität sind die technische und die syntaktische Interoperabilität: Die technische Interoperabilität umfasst die Möglichkeit der technischen Interaktion mit sowie des Transports von Inhalten und erfordert dafür die leitungstechnische Verbindbarkeit und Passbarkeit auf Protokollebene. Die syntaktische Interoperabilität wird durch einen homogenen Einsatz von Sprachen (wie z. B. XML) sichergestellt und gewährleistet den Austausch von Daten auf Basis von vordefinierten und exakt vereinbahrten syntaktischen Strukturen. Semantische Interoperabilität stellt die komplexeste unter den Stufen der Interoperabilität dar. Der wesentliche Grund dafür, dass die Anforderung der semantischen Interoperabilität nicht erfüllt wird, ist das Vorhandensein bzw. die fehlende Auflösung sogenannter semantischer Konflikte. Ein semantischer Konflikt wird hervorgerufen, wenn die am Datenaustausch beteiligten Sender und Empfänger unterschiedliche Datenstrukturen und Dateninhalte verwenden. Eine detaillierte Beschreibung der Konfliktarten und ihrer Behandlung zeigen die nächsten Abschnitte.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
  13. Dzeyk, W.: Effektiv und nutzerfreundlich : Einsatz von semantischen Technologien und Usability-Methoden zur Verbesserung der medizinischen Literatursuche (2010) 0.03
    0.02660349 = product of:
      0.066508725 = sum of:
        0.019843446 = weight(_text_:b in 4416) [ClassicSimilarity], result of:
          0.019843446 = score(doc=4416,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.13700598 = fieldWeight in 4416, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
        0.046665277 = weight(_text_:der in 4416) [ClassicSimilarity], result of:
          0.046665277 = score(doc=4416,freq=70.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.5110283 = fieldWeight in 4416, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
      0.4 = coord(2/5)
    
    Abstract
    In der vorliegenden Arbeit werden die Ergebnisse des MorphoSaurus-Projekts der Deutschen Zentralbibliothek für Medizin (ZB MED) vorgestellt. Ziel des Forschungsprojekts war die substanzielle Verbesserung des Information-Retrievals der medizinischen Suchmaschine MEDPILOT mithilfe computerlinguistischer Ansätze sowie die Optimierung der Gebrauchstauglichkeit (Usability) der Suchmaschinenoberfläche. Das Projekt wurde in Kooperation mit der Averbis GmbH aus Freiburg im Zeitraum von Juni 2007 bis Dezember 2008 an der ZB MED in Köln durchgeführt. Ermöglicht wurde die Realisierung des Projekts durch eine Förderung des Paktes für Forschung und Innovation. Während Averbis die MorphoSaurus-Technologie zur Verarbeitung problematischer Sprachaspekte von Suchanfragen einbrachte und wesentliche Datenbanken der ZB MED in ein Testsystem mit moderner Suchmaschinentechnologie implementierte, evaluierte ein Team der ZB MED das Potenzial dieser Technologie. Neben einem Vergleich der Leistungsfähigkeit zwischen der bisherigen MEDPILOT-Suche und der neuen Sucharchitektur wurde ein Benchmarking mit konkurrierenden Suchmaschinen wie PubMed, Scirus, Google und Google Scholar sowie GoPubMed durchgeführt. Für die Evaluation wurden verschiedene Testkollektionen erstellt, deren Items bzw. Suchphrasen aus einer Inhaltsanalyse realer Suchanfragen des MEDPILOT-Systems gewonnen wurden. Eine Überprüfung der Relevanz der Treffer der Testsuchmaschine als wesentliches Kriterium für die Qualität der Suche zeigte folgendes Ergebnis: Durch die Anwendung der MorphoSaurus-Technologie ist eine im hohen Maße unabhängige Verarbeitung fremdsprachlicher medizinischer Inhalte möglich geworden. Darüber hinaus zeigt die neue Technik insbesondere dort ihre Stärken, wo es um die gleichwertige Verarbeitung von Laien- und Expertensprache, die Analyse von Komposita, Synonymen und grammatikalischen Varianten geht. Zudem sind Module zur Erkennung von Rechtschreibfehlern und zur Auflösung von Akronymen und medizinischen Abkürzungen implementiert worden, die eine weitere Leistungssteigerung des Systems versprechen. Ein Vergleich auf der Basis von MEDLINE-Daten zeigte: Den Suchmaschinen MED-PILOT, PubMed, GoPubMed und Scirus war die Averbis-Testsuchumgebung klar überlegen. Die Trefferrelevanz war größer, es wurden insgesamt mehr Treffer gefunden und die Anzahl der Null-Treffer-Meldungen war im Vergleich zu den anderen Suchmaschinen am geringsten.
    Bei einem Vergleich unter Berücksichtigung aller verfügbaren Quellen gelang es mithilfe der MorphoSaurus-Technik - bei wesentlich geringerem Datenbestand - ähnlich gute Resul-tate zu erzielen, wie mit den Suchmaschinen Google oder Google Scholar. Die Ergebnisse der Evaluation lassen den Schluss zu, dass durch den MorphoSaurus-Ansatz die Leistungsfähigkeit von Google oder Google Scholar im Bereich der medizinischen Literatursuche durch eine Erweiterung der vorhandenen Datenbasis sogar deutlich übertroffen werden kann. Zusätzlich zu den Retrieval-Tests wurde eine Usability-Untersuchung der Testsuchmaschine mit Probanden aus der Medizin durchgeführt. Die Testpersonen attestierten dem Such-interface eine hohe Gebrauchstauglichkeit und Nützlichkeit. Der szenariobasierte Usability-Test hat zudem gezeigt, dass die Testpersonen bzw. User die integrierten Unterstützungs-maßnahmen zur Erhöhung der Benutzerfreundlichkeit während der Suche als sehr positiv und nützlich bewerten. In der Testsuchmaschine wurde diese Unterstützung z. B. durch das Aufklappen und Präsentieren von verwandten MeSH- und ICD-10-Begriffen realisiert. Die Einführung eines Schiebereglers zur effektiven Eingrenzung des Suchraums wurde ebenfalls überwiegend positiv bewertet. Zudem wurden nach Abschicken der Suchanfrage sogenannte Verwandte Suchbegriffe aus verschiedenen medizinischen Teilbereichen angezeigt. Diese Facetten-Funktion diente der Eingrenzung bzw. Verfeinerung der Suche und wurde von den Testpersonen mehrheitlich als ein sinnvolles Hilfsangebot bewertet. Insgesamt stellt das MorphoSaurus-Projekt - mit seinem spezifischen Ansatz - ein gelungenes Beispiel für die Innovationsfähigkeit von Bibliotheken im Bereich der öffentlichen Informationsversorgung dar. Durch die mögliche Anpassung der MorphoSaurus-Technologie mittels fachspezifischer Thesauri ist zudem eine hohe Anschlussfähigkeit für Suchmaschinen-projekte anderer Inhaltsdomänen gegeben.
  14. Feldsien-Sudhaus, I.; Horst, D.; Katzner, E.; Rajski, B.; Weier, H.; Zeumer, T. (Red.): Koha-Evaluation durch die Universitätsbibliothek der TUHH (2015) 0.03
    0.02628832 = product of:
      0.0657208 = sum of:
        0.028347783 = weight(_text_:b in 2811) [ClassicSimilarity], result of:
          0.028347783 = score(doc=2811,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.19572285 = fieldWeight in 2811, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2811)
        0.037373014 = weight(_text_:der in 2811) [ClassicSimilarity], result of:
          0.037373014 = score(doc=2811,freq=22.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.40926933 = fieldWeight in 2811, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2811)
      0.4 = coord(2/5)
    
    Abstract
    Die Universitätsbibliothek der TUHH setzt seit 1996 auf die Softwareunterstützung für Ausleihe und Katalog. Zunächst wurde das integrierte Bibliothekssystem SISIS eingesetzt, 2000 erfolgte der Wechsel auf das Lokale Bibliothekssystem LBS4 von PICA, heute OCLC. Kurz darauf wurde die Erwerbung integriert. Seit Ende der 90er Jahre wird in der Bibliothek Selbstverbuchung angeboten, seit 2011 mit RFID. 2012 wurde der Nutzer-Katalog des LBS4 durch TUBfind, ein Discovery System auf vufind-Basis, abgelöst. Keine Softwarelösung gibt es bisher für die Verwaltung elektronischer Ressourcen mit Ausnahme des Linkresolvers SFX von Exlibris, der seit 2006 eingesetzt wird. Die TUB ist Mitglied im Gemeinsamen Bibliotheksverbund (GBV) und nutzt die zentrale Katalogisierungsdatenbank CBS. Das LBS4 hat in den letzten 15 Jahren kaum funktionale Erweiterungen erfahren. Funktionen für die Verwaltung für Elektronische Ressourcen fehlen genauso wie Standardschnittstellen, z.B. zu LDAP-Directories. Mittelfristig muss das LBS4 im GBV und damit auch an der TUB durch ein anderes Bibliotheksmanagementsystem (BMS) abgelöst werden. Die Verbundzentrale des GBV (VZG) testet daher zusammen mit der FAG Lokale Geschäftsgänge und dem HBZ das noch in der Entwicklung befindliche Kuali OLE, ein Cloud- und Community-basiertes BMS aus den USA. In diesem Bericht werden unsere Projektergebnisse dargestellt, Vergleiche zum LBS4 gezogen und offene Fragen festgehalten.
    Editor
    Universitätsbibliothek der TUHH
  15. Buchbinder, R.; Weidemüller, H.U.; Tiedemann, E.: Biblio-Data, die nationalbibliographische Datenbank der Deutschen Bibliothek (1979) 0.02
    0.024861177 = product of:
      0.062152945 = sum of:
        0.028347783 = weight(_text_:b in 4) [ClassicSimilarity], result of:
          0.028347783 = score(doc=4,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.19572285 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.03380516 = weight(_text_:der in 4) [ClassicSimilarity], result of:
          0.03380516 = score(doc=4,freq=18.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.37019804 = fieldWeight in 4, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
      0.4 = coord(2/5)
    
    Abstract
    Die deutschen nationalbibliographische Datenbank Biblio-Data wird in Teil A mit ihren Grundlagen vorgestellt. Biblio-Data basiert auf dem Information-Retrieval-System STAIRS von IBM, das durch Zusatzprogramme der ZMD verbessert wurde. Das Hauptgewicht dieses Beitrags liegt auf der Erörterung des Biblio-Data-Konzepts, nach dem die Daten der Deutschen Bibliographie retrievalgerecht aufbereitet und eingegeben werden. Auf Eigenarten, Probleme und Mängel, die daraus entstehen, dass Biblio-Data auf nationalbibliographischen Daten aufbaut, wird ausführlich eingegangen. Zwei weitere Beiträge zeigen an einigen Beispielen die vielfältigen Suchmöglichkeiten mit Biblio-Data, um zu verdeutlichen, dass damit nicht nur viel schenellere, sondern auch bessere Recherchen ausgeführt werden können. Teil B weist nach, dass Biblio-Data weder die Innhaltsanalyse noch die Zuordnung von schlagwörtern automatisieren kann. Im derzeitigen Einsatzstadium fällt Biblio-Data die Aufgabe zu, die weiterhin knventionall-intellektuell auszuführende Sacherschließung durch retrospektive Recherchen, insbesonderr durch den wesentlich erleichterten Zugriff auf frühere Indexierungsergebnisse, zu unterstützen. Teil C schildert die praktische Arbeit mit Biblio-Data bei bibliographischen Ermittlungen und Literaturzusammenstellunen und kommt zu dem Ergebnis, dass effektive und bibliographische Arbeit aus der sinnvollen Kombination von Datenbank-Retrieval und konventioneller Suche bestehet.
    Content
    Enthält die Beiträge: Buchbinder, R.: Grundlagen von Biblio-Data (S.11-68); Weidemüller, H.U.: Biblio-Data in der Sacherschließung der Deutschen Bibliothek (S.69-105); Tiedemann, E.: Biblio-Data in der bibliographischen Auskunft der Deutschen Bibliothek (S.107-123)
  16. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.02
    0.024087837 = product of:
      0.060219593 = sum of:
        0.028347783 = weight(_text_:b in 4497) [ClassicSimilarity], result of:
          0.028347783 = score(doc=4497,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.19572285 = fieldWeight in 4497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
        0.03187181 = weight(_text_:der in 4497) [ClassicSimilarity], result of:
          0.03187181 = score(doc=4497,freq=16.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.34902605 = fieldWeight in 4497, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.4 = coord(2/5)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  17. AG KIM Gruppe Titeldaten DINI: Empfehlungen zur RDF-Repräsentation bibliografischer Daten (2014) 0.02
    0.02303682 = product of:
      0.05759205 = sum of:
        0.022678226 = weight(_text_:b in 4668) [ClassicSimilarity], result of:
          0.022678226 = score(doc=4668,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.15657827 = fieldWeight in 4668, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.03125 = fieldNorm(doc=4668)
        0.034913823 = weight(_text_:der in 4668) [ClassicSimilarity], result of:
          0.034913823 = score(doc=4668,freq=30.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.3823389 = fieldWeight in 4668, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4668)
      0.4 = coord(2/5)
    
    Abstract
    In den letzten Jahren wurde eine Vielzahl an Datensets aus Kultur- und Wissenschaftseinrichtungen als Linked Open Data veröffentlicht. Auch das deutsche Bibliothekswesen hat sich aktiv an den Entwicklungen im Bereich Linked Data beteiligt. Die zuvor lediglich in den Bibliothekskatalogen vorliegenden Daten können weiteren Sparten geöffnet und so auf vielfältige Weise in externe Anwendungen eingebunden werden. Gemeinsames Ziel bei der Veröffentlichung der Bibliotheksdaten als Linked Data ist außerdem, Interoperabilität und Nachnutzbarkeit zu ermöglichen und sich auf diese Weise stärker mit anderen Domänen außerhalb der Bibliothekswelt zu vernetzen. Es bestehen sowohl Linked-Data-Services einzelner Bibliotheken als auch der deutschen Bibliotheksverbünde. Trotz ihres gemeinsamen Ziels sprechen die bestehenden Services nicht die gleiche Sprache, da sie auf unterschiedlichen Modellierungen basieren. Um die Interoperabilität dieser Datenquellen zu gewährleisten, sollten die Dienste künftig einer einheitlichen Modellierung folgen. Vor diesem Hintergrund wurde im Januar 2012 eine Arbeitsgruppe gegründet, in der alle deutschen Bibliotheksverbünde, die Deutsche Nationalbibliothek sowie einige weitere interessierte und engagierte Kolleginnen und Kollegen mit entsprechender Expertise vertreten sind. Die Gruppe Titeldaten agiert seit April 2012 als Untergruppe des Kompetenzzentrums Interoperable Metadaten (DINI-AG KIM). Die Moderation und Koordination liegt bei der Deutschen Nationalbibliothek. Im Dezember 2012 schloss sich auch der OBVSG der Arbeitsgruppe an. Die Schweizerische Nationalbibliothek folgte im Mai 2013. Vorliegende Empfehlungen sollen zu einer Harmonisierung der RDFRepräsentationen von Titeldaten im deutschsprachigen Raum beitragen und so möglichst einen Quasi-Standard etablieren. Auch international wird an der Herausforderung gearbeitet, die bestehenden bibliothekarischen Strukturen in die heute zur Verfügung stehenden Konzepte des Semantic Web zu überführen und ihren Mehrwert auszuschöpfen. Die neuesten internationalen Entwicklungen im Bereich der Bereitstellung bibliografischer Daten im Semantic Web wie die Bibliographic Framework Transition Initiative der Library of Congress (BIBFRAME) haben ebenfalls das Ziel, ein Modell zur RDF-Repräsentation bibliothekarischer Daten bereitzustellen. Die Gruppe Titeldaten beobachtet diese Entwicklungen und beabsichtigt, die Erfahrungen und Anforderungen der deutschsprachigen Bibliothekswelt mit einzubringen. Dabei werden einerseits international erarbeitete Empfehlungen aufgegriffen und andererseits Impulse aus der nationalen Kooperation dort eingebracht. Die hier verwendeten Properties könnten z. B. als Grundlage für ein Mapping zu BIBFRAME dienen.
    Content
    Enthält Übersicht der RDF-Elemente für die bibliografischen Relationen. Vgl.: urn:nbn:de:kobv:11-100217673. Version 2.0 unter: https://nbn-resolving.org/urn:nbn:de:kobv:11-110-18452/2153.3-7 (vgl. Mail an Inetbib vom 08.01.2019). Webversion unter: https://wiki.dnb.de/x/cYMOB.
  18. Falkenberg, E.; Hesse, W.; Lindgreen, P.; Nilsson, B.E.; Oei, J.L.H.; Rolland, C.; Stamper, R.K.; Van Assche, F.J.M.; Verrijn-Stuart, A.A.; Voss, K.: FRISCO - A framework of information system concepts : the FRISCO report; final draft (1996) 0.02
    0.02247364 = product of:
      0.1123682 = sum of:
        0.1123682 = weight(_text_:van in 3056) [ClassicSimilarity], result of:
          0.1123682 = score(doc=3056,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.49290553 = fieldWeight in 3056, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0625 = fieldNorm(doc=3056)
      0.2 = coord(1/5)
    
  19. Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur (2011) 0.02
    0.022403656 = product of:
      0.05600914 = sum of:
        0.042162444 = weight(_text_:der in 4291) [ClassicSimilarity], result of:
          0.042162444 = score(doc=4291,freq=28.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.46171808 = fieldWeight in 4291, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.013846695 = product of:
          0.02769339 = sum of:
            0.02769339 = weight(_text_:22 in 4291) [ClassicSimilarity], result of:
              0.02769339 = score(doc=4291,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.19345059 = fieldWeight in 4291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4291)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Seit den 1970/80er Jahren unterstützen sechs Verbundzentralen die Dienstleistungen der Bibliotheken in Deutschland. Mit lokalen, regionalen und überregionalen Services leisten sie einen wichtigen Beitrag für ein funktionierendes nationales Bibliothekssystem. Neue Technologien und globale Vernetzung verändern jedoch die Informationslandschaft mit hoher Dynamik. Um den Herausforderungen in Zukunft gewachsen zu sein, empfehlen die Deutsche Forschungsgemeinschaft (DFG) und der Wissenschaftsrat (WR) eine strategische Neuausrichtung und eine Neuordnung der Verbundsysteme.
    Content
    "Empfehlungen zur Optimierung der Informationsinfrastruktur Verbundübergreifende Entwicklung bedarfsorientierter Services Angestrebt werden sollten stringente, verbundübergreifende arbeitsteilige Strukturen bei Betrieb und Entwicklung der gegenwärtigen wie der zukünftigen Dienste, um unnötige Mehrfacharbeit zu vermeiden und die Durchsetzung einheitlicher Standards zu erleichtern. Das ist technisch machbar und organisatorisch auch im föderalen Umfeld denkbar wie andere Beispiele (z.B. DFN) zeigen. Einführung neuer Steuerungsmechanismen Das derzeitige Finanzvolumen der Länder für Informationsservices (Finanzzuweisung an Verbundzentralen) muss erhalten bleiben und weiterhin die den bisherigen Regelungen entsprechenden Steigerungen erfahren. Gleichzeitig müssen behutsam, aber konsequent neue Steuerungsmechanismen eingeführt werden, die die Verbünde im höheren Maße als bisher in die Lage versetzen, neue Entwicklungen bedarfsorientiert aufzugreifen und verlässliche Dienste aufzubauen. Zur Steuerung sollten Aufsichtsgremien im Sinne von "Beiräten" vergleichbar den Beiräten der Informationsdienstleister in der WGL eingesetzt werden. Wege zu einer Neuausrichtung der Verbünde Neben den empfohlenen politisch-administrativen Maßnahmen erscheint ein attraktiv dimensioniertes Förderprogramm der DFG zur "Neuausrichtung überregionaler Informationsservices" und "Weiterentwicklung der Bibliotheksverbünde als Teil der überregionalen Informationsinfrastruktur" [Arbeitstitel] geeignet, den notwendigen Strukturwandel hin zu einem arbeitsteiligen, verbundübergreifenden Diensteangebot anzustoßen und zu koordinieren."
    Date
    7. 2.2011 19:52:22
  20. Förderung von Informationsinfrastrukturen für die Wissenschaft : Ein Positionspapier der Deutschen Forschungsgemeinschaft (2018) 0.02
    0.021152614 = product of:
      0.052881535 = sum of:
        0.03903484 = weight(_text_:der in 4178) [ClassicSimilarity], result of:
          0.03903484 = score(doc=4178,freq=24.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.42746788 = fieldWeight in 4178, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4178)
        0.013846695 = product of:
          0.02769339 = sum of:
            0.02769339 = weight(_text_:22 in 4178) [ClassicSimilarity], result of:
              0.02769339 = score(doc=4178,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.19345059 = fieldWeight in 4178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4178)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Das vorliegende Positionspapier befasst sich mit dem Förderhandeln der Deutschen Forschungsgemeinschaft (DFG) im Bereich der wissenschaftlichen Informationsinfrastrukturen. Es hat zwei Funktionen: Erstens reflektiert es - sowohl auf einer übergeordneten Ebene als auch für drei ausgewählte Themen - die strukturellen Rahmenbedingungen des DFG-Förderhandelns im Bereich der wissenschaftlichen Informationsinfrastrukturen und setzt sich mit den Anpassungsbedarfen auseinander, die sich aus der gegenwärtigen Ausgangslage ergeben. Darüber hinaus benennt es konkrete Maßnahmen als Reaktion auf die analysierten Herausforderungen und Handlungsbedarfe und bildet damit zweitens eine Leitschnur für das Förderhandeln im Bereich Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS).
    Als Selbstverwaltungsorganisation und Interessenvertretung der Wissenschaft sieht die DFG es als ihre Aufgabe an, den digitalen Wandel in den Wissenschaften aktiv mitzugestalten. Die Förderung im Bereich der Informationsinfrastrukturen erfolgt mit dem Anspruch, sich an einem von der Wissenschaft formulierten Bedarf zu orientieren, der anhaltend hohen Veränderungsdynamik gerecht zu werden, für unkonventionelle Projektideen sowie Projekte in einem explorativen Stadium offen zu sein und impulsgebend sowie struktur- und standardbildend zu wirken. Mit diesem Positionspapier reflektiert die DFG - nach 2006 und 2012 - zum dritten Mal die Folgen des digitalen Wandels für ihr Förderhandeln im Bereich der wissenschaftlichen Informationsinfrastrukturen. Erarbeitet wurde das Papier vom Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme, dem für die Förderung wissenschaftlicher Informationsinfrastrukturen fachlich zuständigen Gremium. Der AWBI ist im Rahmen seiner Zuständigkeit als Gremium des Hauptausschusses verantwortlich für die Ausgestaltung des Förderportfolios sowie einzelner Förderinitiativen im Bereich der wissenschaftlichen Informationsinfrastrukturen.
    Date
    22. 3.2018 17:30:43

Authors

Languages

  • d 101
  • e 31

Types