Search (1169 results, page 1 of 59)

  • × type_ss:"a"
  • × language_ss:"d"
  1. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.08
    0.08464232 = sum of:
      0.06947301 = product of:
        0.27789205 = sum of:
          0.27789205 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
            0.27789205 = score(doc=193,freq=2.0), product of:
              0.47464174 = queryWeight, product of:
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.04478481 = queryNorm
              0.5854775 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.25 = coord(1/4)
      0.015169309 = product of:
        0.030338619 = sum of:
          0.030338619 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
            0.030338619 = score(doc=193,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.19345059 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.5 = coord(1/2)
    
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  2. Münnich, M.: Katalogisieren auf dem PC : ein Pflichtenheft für die Formalkatalogisierung (1988) 0.08
    0.080652975 = product of:
      0.16130595 = sum of:
        0.16130595 = sum of:
          0.112764165 = weight(_text_:z in 2502) [ClassicSimilarity], result of:
            0.112764165 = score(doc=2502,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.47175628 = fieldWeight in 2502, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0625 = fieldNorm(doc=2502)
          0.048541788 = weight(_text_:22 in 2502) [ClassicSimilarity], result of:
            0.048541788 = score(doc=2502,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.30952093 = fieldWeight in 2502, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=2502)
      0.5 = coord(1/2)
    
    Abstract
    Examines a simpler cataloguing format offered by PCs, without disturbing compatibility, using A-Z cataloguing rules for data input, category codes for tagging and computer-supported data input through windows. Gives numerous examples of catalogue entries, basing techniques on certain category schemes set out by Klaus Haller and Hans Popst. Examines catalogue entries in respect of categories of data bases for authors and corporate names, titles, single volume works, serial issues of collected works, and limited editions of works in several volumes.
    Source
    Bibliotheksdienst. 22(1988) H.9, S.841-856
  3. Sireteanu, R.: "Dumpfes Sehen" verändert das Gehirn (2000) 0.07
    0.070571356 = product of:
      0.14114271 = sum of:
        0.14114271 = sum of:
          0.09866865 = weight(_text_:z in 5573) [ClassicSimilarity], result of:
            0.09866865 = score(doc=5573,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.41278675 = fieldWeight in 5573, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5573)
          0.042474065 = weight(_text_:22 in 5573) [ClassicSimilarity], result of:
            0.042474065 = score(doc=5573,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.2708308 = fieldWeight in 5573, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5573)
      0.5 = coord(1/2)
    
    Abstract
    Einer der faszinierendsten Aspekte der menschlichen visuellen Wahrnehmung ist die Fähigkeit, die Bilder der beiden Augen zu einem einheitlichen, räumlichen Wahrnehmungseindruck zu verschmelzen - einem Eindruck, bei dem Gegenstände sich plastisch von ihrem Hintergrund "abheben". Diese scheinbar mühelose Leistung erfordert ein einwandfreies visuelles Angebot in früher Kindheit. Störungen der Sehfähigkeit bei Babys und Kleinkindern, z. B. durch ungleiche Brechkraft der beiden Augen (Anisometropie), lichtundurchlässige Augenmedien aufgrund hängender Augenlider (Ptosis) oder angeborene Linsentrübung (Katarakt) können zu einem irreversiblen Verlust der Sehkraft auf einem oder beiden Augen führen. Fachleute sprechen in diesem Fall von Amblyopie, was soviel bedeutet wie "dumpfes Sehen"
    Source
    Max Planck Forschung. 2000, H.1, S.22-25
  4. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.07
    0.070571356 = product of:
      0.14114271 = sum of:
        0.14114271 = sum of:
          0.09866865 = weight(_text_:z in 3276) [ClassicSimilarity], result of:
            0.09866865 = score(doc=3276,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.41278675 = fieldWeight in 3276, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3276)
          0.042474065 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
            0.042474065 = score(doc=3276,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.2708308 = fieldWeight in 3276, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3276)
      0.5 = coord(1/2)
    
    Date
    20. 3.2005 16:23:22
  5. Wagner-Döbler, R.: Umberto Ecos Betrachtung einer benützerfeindlichen Bibliothek : 25 Jahre danach (2006) 0.07
    0.070571356 = product of:
      0.14114271 = sum of:
        0.14114271 = sum of:
          0.09866865 = weight(_text_:z in 29) [ClassicSimilarity], result of:
            0.09866865 = score(doc=29,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.41278675 = fieldWeight in 29, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0546875 = fieldNorm(doc=29)
          0.042474065 = weight(_text_:22 in 29) [ClassicSimilarity], result of:
            0.042474065 = score(doc=29,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.2708308 = fieldWeight in 29, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=29)
      0.5 = coord(1/2)
    
    Abstract
    Vor rund 25 Jahren entwarf Umberto Eco anlässlich des Jubiläums einer italienischen Stadtbibliothek die negative Utopie einer benützerfeindlichen Bibliothek, an deren hervorstechendste Eigenschaften im vorliegenden Beitrag erinnert wird. Vieles damals teils als Desiderat, teils fast als Utopie Empfundene ist heute erreicht, ja Selbstverständlichkeit geworden. Überträgt man Ecos Betrachtungsweise auf einige Aspekte der Benützerfreundlichkeit heutiger digitaler Bibliotheken und Informationsressourcen, wie z. B. Navigierbarkeit und Zugänglichkeit, lassen sich auch hier noch, dem Erreichten zum Trotz, Desiderate und Raumfür Utopien aufzeigen.
    Date
    27.10.2006 14:22:06
  6. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.07
    0.06851753 = product of:
      0.13703506 = sum of:
        0.13703506 = sum of:
          0.112764165 = weight(_text_:z in 3284) [ClassicSimilarity], result of:
            0.112764165 = score(doc=3284,freq=8.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.47175628 = fieldWeight in 3284, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.03125 = fieldNorm(doc=3284)
          0.024270894 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
            0.024270894 = score(doc=3284,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.15476047 = fieldWeight in 3284, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3284)
      0.5 = coord(1/2)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Date
    22. 1.2010 14:41:24
  7. Neuroth, H.; Lepschy, P.: ¬Das EU-Projekt Renardus (2001) 0.06
    0.060489736 = product of:
      0.12097947 = sum of:
        0.12097947 = sum of:
          0.08457313 = weight(_text_:z in 5589) [ClassicSimilarity], result of:
            0.08457313 = score(doc=5589,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.35381722 = fieldWeight in 5589, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=5589)
          0.036406342 = weight(_text_:22 in 5589) [ClassicSimilarity], result of:
            0.036406342 = score(doc=5589,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 5589, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=5589)
      0.5 = coord(1/2)
    
    Abstract
    Der vollständige Projektname von Renardus lautet "Academic Subject Gateway Service Europe". Renardus wird von der Europäischen Union im 5. Rahmenprogramm mit dem Schwerpunktthema "Information Society Technologies" im zweiten Thematischen Programm "Benutzerfreundliche Informationsgesellschaft" ('Promoting a User-friendly Information Society') gefördert. Die Projektlaufzeit ist von Januar 2000 bis Juni 2002. Insgesamt zwölf Partner (Principal und Assistant Contractors) aus Finnland, Dänemark, Schweden, Großbritannien, den Niederlanden, Frankreich und Deutschland beteiligen sich an diesem Projekt. Die Europäische Union unterstützt das Projekt mit 1,7 Mio. EURO, die Gesamtkosten belaufen sich inklusive der Eigenbeteiligungen der Partner auf 2,3 Mio. EURO. Das Ziel des Projektes Renardus ist es, über eine Schnittstelle Zugriff auf verteilte Sammlungen von "High Quality" Internet Ressourcen in Europa zu ermöglichen. Diese Schnittstelle wird über den Renardus Broker realisiert, der das "Cross-Searchen" und "Cross-Browsen" über verteilte "Quality-Controlled Subject Gateways" ermöglicht. Ein weiteres Ziel von Renardus ist es, Möglichkeiten von "metadata sharing" zu evaluieren und in kleinen Experimenten zwischen z. B. Subject Gateways und Nationalbibliothek zu testen bzw. zu realisieren
    Date
    22. 6.2002 19:32:15
  8. Staatsbibliothek zu Berlin: Datenbank "Gesamtkatalog der Wiegendrucke" online (2003) 0.06
    0.060489736 = product of:
      0.12097947 = sum of:
        0.12097947 = sum of:
          0.08457313 = weight(_text_:z in 1933) [ClassicSimilarity], result of:
            0.08457313 = score(doc=1933,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.35381722 = fieldWeight in 1933, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=1933)
          0.036406342 = weight(_text_:22 in 1933) [ClassicSimilarity], result of:
            0.036406342 = score(doc=1933,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 1933, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1933)
      0.5 = coord(1/2)
    
    Abstract
    Die kostenfrei zugängliche Datenbank "Gesamtkatalog der Wiegendrucke" wurde am 20. August 2003 offiziell für die Fachwelt im Internet bereitgestellt. Ausgangspunkt für diese Datenbank ist die seit 1925 im Hiersemann Verlag in Einzelbänden erscheinende Druck-Version des "Gesamtkatalogs der Wiegendrucke", die weltweit sämtliche Drucke des 15. Jahrhunderts in alphabetischer Form nachweist. Der Gesamtkatalog der Wiegendrucke wird seit fast 100 Jahren in der Staatsbibliothek zu Berlin redaktionell bearbeitet. Bisher erschienen zehn Bände, die die Alphabetteile "A-H" umfassen. Dieses Material sowie die umfangreiche Materialsammlung der Redaktion, die nunmehr auch den Alphabetteil "I-Z" umfasst, wurde in den letzten Jahren mit Hilfe der Deutschen Forschungsgemeinschaft (DFG) elektronisch aufbereitet. Die Datenbank enthält unter anderem Angaben zum Umfang, zur Zeilenzahl, zu den Drucktypen sowie teilweise auch die Besitznachweise von Wiegendrucken. Anhand eines Verzeichnisses aller inkunabelbesitzenden Bibliotheken lassen sich die zum Teil spannenden Wege von Inkunabel-Sammlungen nachvollziehen. Die Suchmaschine ist keine übliche Web-Applikation. Sowohl Server als auch Klient laufen auf einem Applikations-Server in der Staatsbibliothek zu Berlin.
    Date
    21. 8.2004 18:42:22
  9. Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.06
    0.060489736 = product of:
      0.12097947 = sum of:
        0.12097947 = sum of:
          0.08457313 = weight(_text_:z in 2406) [ClassicSimilarity], result of:
            0.08457313 = score(doc=2406,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.35381722 = fieldWeight in 2406, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=2406)
          0.036406342 = weight(_text_:22 in 2406) [ClassicSimilarity], result of:
            0.036406342 = score(doc=2406,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 2406, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2406)
      0.5 = coord(1/2)
    
    Abstract
    Das Kompetenzzentrum Interoperable Metadaten (KIM) ist eine Informations- und Kommunikationsplattform für Metadatenanwender und -entwickler zur Verbesserung der Interoperabilität von Metadaten im deutschsprachigen Raum. KIM unterstützt und fördert die Erarbeitung von Metadatenstandards, die interoperable Gestaltung von Formaten und damit die optimale Nutzung von Metadaten in digitalen Informationsumgebungen mittels Lehrmaterialien, Schulungen und Beratungen. Das Kompetenzzentrum entsteht im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts KIM unter der Federführung der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) in Zusammenarbeit mit der Deutschen Nationalbibliothek (DNB). Projektpartner sind in der Schweiz die Hochschule für Technik und Wirtschaft HTW Chur, die Eidgenössische Technische Hochschule (ETH) Zürich und in Österreich die Universität Wien. Aufgabe des Kompetenzzentrums ist es, die Interoperabilität von Metadaten zu verbessern. Interoperabilität ist die Fähigkeit zur Zusammenarbeit von heterogenen Systemen. Datenbestände unabhängiger Systeme können ausgetauscht oder zusammengeführt werden, um z. B. eine systemübergreifende Suche oder das Browsen zu ermöglichen. Daten werden zum Teil in sehr unterschiedlichen Datenbanksystemen gespeichert. Interoperabilität entsteht dann, wenn die Systeme umfangreiche Schnittstellen implementieren, die ein weitgehend verlustfreies Mapping der internen Datenrepräsentation ermöglichen.
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.22-24
  10. Engerer, V.: Metapher und Wissenstransfers im informationsbezogenen Diskurs (2013) 0.06
    0.060489736 = product of:
      0.12097947 = sum of:
        0.12097947 = sum of:
          0.08457313 = weight(_text_:z in 659) [ClassicSimilarity], result of:
            0.08457313 = score(doc=659,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.35381722 = fieldWeight in 659, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=659)
          0.036406342 = weight(_text_:22 in 659) [ClassicSimilarity], result of:
            0.036406342 = score(doc=659,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 659, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=659)
      0.5 = coord(1/2)
    
    Abstract
    Der vorliegende Beitrag1 ist ein Versuch, Eigenschaften von Schöns generativer Metapher auf das "statische" Resultat als Fachterminologie, entstanden durch Übertragung eines wissenschaftlichen Bereiches in einen anderen, anzuwenden. Metapher gilt in diesem Bereich als wissenstransferierendes Verfahren der Übertragung von Konzepten einer Disziplin auf eine andere. Weiterhin wird Metapher als Teil des sprachlichen Jargons in der informationswissenschaftlichen und bibliothekarischen Praxis thematisiert. Ein kurzer Durchgang des dänischen bibliotheksmetaphorischen Wortschatzes zeigt u. a., dass in dieser Domäne ein "ontologisches Erfahrungsgefälle" von abstrakt-konkret wirksam ist, da viele bibliothekstechnische, computer-interaktionsbezogene und informationswissenschaftliche Begriffe mit Hilfe konkreterer Konzepte aus besser verstandenen Domänen, z. B. dem Bereich der Nahrungsaufnahme, erklärt werden. Allerdings scheint auch hier der Anteil "entmetaphorisierter", ehemals metaphorischer Ausdrücke hoch zu sein, wie es bei "abgeschliffenen" Ausdrücken auch in der Gemeinsprache der Fall ist. Die Analyse wird abgerundet mit einem Ausblick auf ein Forschungsgebiet, das in dezidierter Weise von der konzeptuellen Ergiebigkeit des Metaphernbegriffs in der Untersuchung der terminologischen Wissenschaftsbeziehungen Gebrauch macht
    Date
    22. 3.2013 14:06:49
  11. Luca, E.W. de; Dahlberg, I.: ¬Die Multilingual Lexical Linked Data Cloud : eine mögliche Zugangsoptimierung? (2014) 0.06
    0.060489736 = product of:
      0.12097947 = sum of:
        0.12097947 = sum of:
          0.08457313 = weight(_text_:z in 1736) [ClassicSimilarity], result of:
            0.08457313 = score(doc=1736,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.35381722 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
          0.036406342 = weight(_text_:22 in 1736) [ClassicSimilarity], result of:
            0.036406342 = score(doc=1736,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
      0.5 = coord(1/2)
    
    Abstract
    Sehr viele Informationen sind bereits im Web verfügbar oder können aus isolierten strukturierten Datenspeichern wie Informationssystemen und sozialen Netzwerken gewonnen werden. Datenintegration durch Nachbearbeitung oder durch Suchmechanismen (z. B. D2R) ist deshalb wichtig, um Informationen allgemein verwendbar zu machen. Semantische Technologien ermöglichen die Verwendung definierter Verbindungen (typisierter Links), durch die ihre Beziehungen zueinander festgehalten werden, was Vorteile für jede Anwendung bietet, die das in Daten enthaltene Wissen wieder verwenden kann. Um ­eine semantische Daten-Landkarte herzustellen, benötigen wir Wissen über die einzelnen Daten und ihre Beziehung zu anderen Daten. Dieser Beitrag stellt unsere Arbeit zur Benutzung von Lexical Linked Data (LLD) durch ein Meta-Modell vor, das alle Ressourcen enthält und zudem die Möglichkeit bietet sie unter unterschiedlichen Gesichtspunkten aufzufinden. Wir verbinden damit bestehende Arbeiten über Wissensgebiete (basierend auf der Information Coding Classification) mit der Multilingual Lexical Linked Data Cloud (basierend auf der RDF/OWL-Repräsentation von EuroWordNet und den ähnlichen integrierten lexikalischen Ressourcen MultiWordNet, MEMODATA und die Hamburg Metapher DB).
    Date
    22. 9.2014 19:00:13
  12. Kàrolyi, Z.: ¬Das Schlagwortregister der Bibliographien (1984) 0.06
    0.056382082 = product of:
      0.112764165 = sum of:
        0.112764165 = product of:
          0.22552833 = sum of:
            0.22552833 = weight(_text_:z in 37) [ClassicSimilarity], result of:
              0.22552833 = score(doc=37,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.94351256 = fieldWeight in 37, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.125 = fieldNorm(doc=37)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  13. Dobrowolski, Z.: Analyse der Klassifikations-Systeme (1965) 0.06
    0.056382082 = product of:
      0.112764165 = sum of:
        0.112764165 = product of:
          0.22552833 = sum of:
            0.22552833 = weight(_text_:z in 4992) [ClassicSimilarity], result of:
              0.22552833 = score(doc=4992,freq=2.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.94351256 = fieldWeight in 4992, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.125 = fieldNorm(doc=4992)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  14. Lorenz, B.: ¬Die Fachsystematik Technik der Regensburger Verbundklassifikation : Ein Fallbeispiel für Optimierung (1998) 0.05
    0.05040811 = product of:
      0.10081622 = sum of:
        0.10081622 = sum of:
          0.070477605 = weight(_text_:z in 6626) [ClassicSimilarity], result of:
            0.070477605 = score(doc=6626,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.29484767 = fieldWeight in 6626, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=6626)
          0.030338619 = weight(_text_:22 in 6626) [ClassicSimilarity], result of:
            0.030338619 = score(doc=6626,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.19345059 = fieldWeight in 6626, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=6626)
      0.5 = coord(1/2)
    
    Abstract
    "Bis man im Internet eine bestimmte Information findet, muß man sich durch weitaus höhere Berge an Daten-Müll fressen als etwa in einer halbwegs ordentlichen Bibliothek". So skizzierte Kraft Wetzel am 25.10.95 in der Wochenzeitung "Freitag" die Situation der (Un-)Ordnung im Internet und diese Situation hat sich in den vergangenen 24 Monaten wohl nicht unbedingt verbessert. Was aber bei diesem Seufzer über das Internet nicht übersehen werden sollte, ist der Maßstab, der hier formuliert wird, nämlich "halbwegs ordentliche Bibliothek". Denn eine solche Bibliothek hat nach einhelliger Forderung ihrer Nutzer ihre Bestände zu erschließen, also auffindbar zu machen bzw. bei den Lesern zugänglicher Präsentation, also bei Freihandaufstellung, buchstäblich greifbar zu machen. Eine Freihandaufstellung ist allerdings sinnvoll nicht denkbar ohne ein Ordnungssystem auf klassifikatorischer Basis. Doch stellt sich die Anwendung von Klassifikationen in wissenschaftlichen Bibliotheken in Deutschland und im Ausland weitgehend verschieden dar. Die ausländische Situation ist weithin geprägt durch die verbreitete Anwendung weniger Klassifikationen (z. B. LCC, UDC, DDC, BBK), bei denen je ein Zentrum den Anwendern die Materialien zur Verfügung stellt. Hingegen verwenden viele Bibliotheken - gerade in Deutschland - traditionellerweise ihr jeweils eigenes Klassifikationssystem, sei es zur standortfreien Sacherschließung oder zur Sacherschließung durch Buchaufstellung oder für beide Zwecke. Die Anwendung einer Verbundklassifikation ist hingegen trotz langjähriger Erfahrung im HBZ-Verbund und im Regensburger Verbund für weite Bereiche des deutschen Bibliothekswesens noch ungewohnt und diskussionsbedürftig. Dabei versteht man unter einer Verbundklassifikation die in einer Gruppe von Bibliotheken gemeinsam angewandte und von kompetenten Partnern in kooperativer Arbeit optimierte bibliothekarische Klassifikation. jeder Verbundpartner entscheidet demgemäß mit über den Inhalt der gemeinsamen Klassifikation
    Date
    9.10.2001 18:22:39
  15. Semar, W.: Kryptografie (2004) 0.05
    0.05040811 = product of:
      0.10081622 = sum of:
        0.10081622 = sum of:
          0.070477605 = weight(_text_:z in 2956) [ClassicSimilarity], result of:
            0.070477605 = score(doc=2956,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.29484767 = fieldWeight in 2956, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2956)
          0.030338619 = weight(_text_:22 in 2956) [ClassicSimilarity], result of:
            0.030338619 = score(doc=2956,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.19345059 = fieldWeight in 2956, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2956)
      0.5 = coord(1/2)
    
    Abstract
    Kryptografie ist die Lehre von der Verschlüsselung von Daten und den Techniken, die zur Realisierung derselben verwendet werden. Sie hat längst die Grauzone der Spionage und des Militärbereichs überschritten und ist als Schlüsseltechnik für die Absicherung weltweiter Computernetze von zentraler Bedeutung. Die Art und vor allem die Menge der Daten, die schützenswert sind, haben sich mit der Verbreitung elektronischer Datenverarbeitung deutlich gewandelt. Es werden nicht nur im Berufs-, sondern auch zunehmend im Privatleben Informationen vor unberechtigtem Zugriff und vor Manipulation geschützt. Verschlüsselungsverfahren kommen im Rahmen der Datenübertragung, besonders in offenen Netzen wie dem Internet, eine besondere Bedeutung zu. Die Kryptografie soll die Vertraulichkeit von Daten ermöglichen. Schließlich hat jede Person und jede Organisation ein legitimes Interesse an dem Schutz ihrer Daten vor Ausspähung. Neben dem offensichtlichen Zweck der Geheimhaltung muss die Kryptografie weitere, grundlegende Kriterien erfüllen wie die Integrität, die Authentizität und die Verbindlichkeit beim Austausch von empfindlichen Daten. Diese vier Kriterien müssen erfüllt sein, wenn eine optimale Datensicherheit gewährleistet sein soll. Für jedes Kriterium gibt es eigene Lösungsmöglichkeiten, die Kunst liegt darin, mit einem Verschlüsselungssystem möglichst alle vier Kriterien gleichzeitig zu erfüllen. Ein weiteres Ziel kann in manchen Situationen Anonymität sein, z. B. beim elektronischen Geld. Darunter wird die Vertraulichkeit nicht des Nachrichteninhalts, sondern sogar des vollständigen Kommunikationsvorgangs als solchem verstanden. Genau genommen muss zwischen der Kryptografie, die sich mit der Verschlüsselung von Daten beschäftigt, und der Kryptoanalyse, die sich mit derer Entschlüsselung beschäftigt, unterschieden werden. Der Oberbegriff für beide Disziplinen ist Kryptologie.
    Date
    5. 4.2013 10:22:37
  16. Schaar, P.: "Ubiquitous Computing" - : lückenhafter Datenschutz? (2006) 0.05
    0.05040811 = product of:
      0.10081622 = sum of:
        0.10081622 = sum of:
          0.070477605 = weight(_text_:z in 5078) [ClassicSimilarity], result of:
            0.070477605 = score(doc=5078,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.29484767 = fieldWeight in 5078, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5078)
          0.030338619 = weight(_text_:22 in 5078) [ClassicSimilarity], result of:
            0.030338619 = score(doc=5078,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.19345059 = fieldWeight in 5078, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5078)
      0.5 = coord(1/2)
    
    Abstract
    Die Miniaturisierung der Informations- und Kommunikationstechnik dient der Verbesserung unserer Lebens- und Arbeitsbedingungen. Der Einsatz von technischen Systemen muss transparent und unter Wahrung des Selbstbestimmungsrechts der Betroffenen erfolgen. Die Informations- und Kommunikationstechnik entwickelt sich permanent weiter: Die Rechenleistung und Vernetzungsdichte der Systeme steigt, die Übertragungsbandbreite und Speicherkapazität nimmt zu und die Komponenten werden immer kleiner. Besonders die Miniaturisierung hat zu Visionen über neue Einsatzfelder für IT-Systeme geführt. Die mit den Schlagworten "Pervasive Computing", "Ubiquitous Computing" und "Ambient Intelligence" verbundenen Konzepte führen zu miniaturisierten IT-Systemen, die unsere Alltagswelt durchdringen, ohne das sie noch als "Computer" erkannt werden. Trends, die diese Entwicklung vorantreiben, sind etwa - leistungsfähigere, kleinere Prozessoren und Speicherbausteine, - höhere Integration der Netze (UMTS, WiMax, GSM, WLAN, Bluetooth) mit neuen Diensten etwa zur spontanen Vernetzung von IT-Systemen, sowie - neue Sensoren, langlebige und sehr kleine Batterien. Auch sollen durch die Forschung in der Nanotechnologie neue Produkte - etwa in der Medizin - entwickelt werden, die durch eindeutige Kennungen in den Nano-Partikeln spätere Rückverfolgung oder Identifizierung der "Träger" ermöglichen könnten. Bereits heute wird durch neue IT-Systeme der Einsatz von Informationstechnik weitgehend unsichtbar, z. B. wenn Mikroprozessoren in Alltagsgegenstände integriert sind. Mit der Radio Frequency Identification (RFID) rückt die Vision dieser allgegenwärtigen Datenverarbeitung näher. Dies bringt neue Gefahren für die Persönlichkeitsrechte der Bürgerinnen und Bürger mit sich. Daher sind Konzepte zum Schutz der Privatsphäre gefragt, die bereits beim Systementwurf greifen und nicht erst nachträglich "aufgepfropft" werden. Nachträglicher Datenschutz ist nicht nur weniger effektiv, sondern auch teuerer als eingebauter (System-) Datenschutz.
    Source
    Wechselwirkung. 28(2006) Nr.136, S.22-25
  17. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.05
    0.05040811 = product of:
      0.10081622 = sum of:
        0.10081622 = sum of:
          0.070477605 = weight(_text_:z in 374) [ClassicSimilarity], result of:
            0.070477605 = score(doc=374,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.29484767 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
          0.030338619 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
            0.030338619 = score(doc=374,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.19345059 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
      0.5 = coord(1/2)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
  18. Sure, Y.; Tempich, C.: Wissensvernetzung in Organisationen (2006) 0.04
    0.042286564 = product of:
      0.08457313 = sum of:
        0.08457313 = product of:
          0.16914625 = sum of:
            0.16914625 = weight(_text_:z in 5800) [ClassicSimilarity], result of:
              0.16914625 = score(doc=5800,freq=8.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                0.70763445 = fieldWeight in 5800, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5800)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das richtige Wissen zur richtigen Zeit zur Verfügung zu stellen, ist eines der Hauptziele im Wissensmanagement. Wissensmodellierung mit Ontologien bietet Lösungen für viele der dabei zu bewältigenden Aufgaben wie z. B. der Vernetzung von unterschiedlichen Wissensträgern und Wissensquellen und hat sich als integraler Bestandteil zahlreicher Wissensmanagementanwendungen etabliert. Getrieben durch neue Organisationsparadigmen wie z. B. Virtuelle Organisationen und neue Kommunikationsparadigmen wie z. B. Peer-To-Peer gewinnt dezentrales Wissensmanagement zunehmend an Bedeutung. Insbesondere gibt es in solchen Umgebungen auch neue Herausforderungen für die Modellierung von Wissen wie z. B. Einigung bei der Modellierung in verteilten Umgebungen. In diesem Kapitel wird die Methodik DILIGENT zur Erstellung, Wartung und Pflege von Ontologien in verteilten und dynamischen Umgebungen vorgestellt und anhand praktischer Beispiele veranschaulicht. Neben dem zugrunde liegenden Prozessmodell zur Wissensmodellierung wird schwerpunktartig die Unterstützung von Argumentationen während der Wissensmodellierung in verteilten Umgebungen beleuchtet, welche den dezentralen Einigungsprozess unterstützt.
  19. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.04
    0.040326487 = product of:
      0.080652975 = sum of:
        0.080652975 = sum of:
          0.056382082 = weight(_text_:z in 5868) [ClassicSimilarity], result of:
            0.056382082 = score(doc=5868,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.23587814 = fieldWeight in 5868, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.03125 = fieldNorm(doc=5868)
          0.024270894 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
            0.024270894 = score(doc=5868,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.15476047 = fieldWeight in 5868, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=5868)
      0.5 = coord(1/2)
    
    Abstract
    Die Agrarproduktion wird in sehr komplexer Weise durch einen steten Wandel ihrer ökono-mischen und ökologischen Rahmenbedingungen beeinflusst. Aus diesem Prozess resultieren ständig neue Anforderungen an die Agrarforschung. Bei den Forschungs- und Untersuchungsarbeiten in der Pflanzen- und Tierproduktion, im Gartenbau und im Forstwesen nimmt dabei das Experiment eine zentrale Stelle ein. Der derzeitige Stand der Dokumentation und Präsentation von Ergebnissen der Versuchstätigkeit ist gekennzeichnet durch: - Die Existenz einer Vielzahl dezentraler Pools von Versuchsberichten, - hohe Aufwendungen für deren Publizierung, in der Regel im Selbstverlag, - steigende Versandkosten, - relativ kleiner Adressatenkreis, - nur punktuell webbasierte, statische Präsentationen, - kein umfassender Austausch und damit transparente Präsentation von Versuchsresultaten, - keine strukturiert unterstützte (Datenbank-)Recherche nach bestimmten Berichten/Dokumenten/Einrichtungen/Versuchskategorien usw. Das Projekt >Versuchsberichte im Internet< (VIP) soll für Einrichtungen der Beratung, Forschung, Lehre, Praxis und Verwaltung im Agrarbereich helfen, diese Mängel zu mindern und so einen Rationalisierungseffekt auslösen. Dieses Ziel soll im Einzelnen wie folgt realisiert werden: - Input der als verteilte Informationspools in Bund und Ländern vorliegenden Versuchsberichte in eine zentrale Dokumentendatenbank bei uneingeschränkter Verfügungsgewalt und vollen Urheberrechten der beteiligten Einrichtungen; - Bereitstellung einer Online-Lösung im Internet; - Integration eines Moduls für den internetgestützten Online-Input von Dokumenten; - Gewährleistung von Datenschutz; - Unterstützung des Versuchswesens in Bund und Ländern mit dem Ziel, Rationalisierungseffekte z. B. hinsichtlich der Versuchsplanung, Dokumentations- und Kommunikationsaufwendungen, Öffentlichkeitsarbeit, e-commerce zu erreichen. Über diese Funktionen hinaus werden in das Projekt weitere Informationspools, wie Adressen, bibliographische und wissenschaftliche Informationen, Diskussionslisten, Maps u. a. integriert. Entsprechend der föderalen Struktur der Bundesrepublik steht eine Beteiligung am Projekt allen interessierten Einrichtungen in Bund und Ländern offen
    Date
    16. 5.2001 12:22:23
  20. Elektronische Volltextvermittlung ohne Copyright-Probleme (2009) 0.04
    0.040326487 = product of:
      0.080652975 = sum of:
        0.080652975 = sum of:
          0.056382082 = weight(_text_:z in 2669) [ClassicSimilarity], result of:
            0.056382082 = score(doc=2669,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.23587814 = fieldWeight in 2669, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.03125 = fieldNorm(doc=2669)
          0.024270894 = weight(_text_:22 in 2669) [ClassicSimilarity], result of:
            0.024270894 = score(doc=2669,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.15476047 = fieldWeight in 2669, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2669)
      0.5 = coord(1/2)
    
    Content
    Hintergrund zu Funktionsweise und Lieferanten FIZ AutoDoc, der automatische Volltextvermittlungsservice von FIZ Karlsruhe, ist ein modernes, innovatives Workflow-Management-System, in dem die einzelnen Arbeitsschritte wie die Beschaffung von Literatur, deren Auslieferung, die Einhaltung von Copyright-Rechten und Abrechnung automatisiert ablaufen. Das System basiert auf modernsterTechnik und die einzelnen Module werden flexibel und intelligent eingesetzt. Der Zugriff kann entweder über das FIZ AutoDoc-Web-Portal oder über firmenspezifische Intranetlösungen erfolgen. FIZ AutoDoc stellt alle Funktionen für eine professionelle Literaturbeschaffung bereit und führt sie überwiegend automatisch aus: Bestellannahme über Formularoberflächen oder Schnittstellen (Open URL / Webservice), automatische Standortermittlung in den Datenbeständen der angeschlossenen Zulieferer, automatische Weiterleitung des Auftrages an die liefernde Bibliothek oder den Verlag, automatische Auslieferung und Abrechnung, etc. Kann eine Literaturbestellung nicht automatisch ausgeführt werden, besteht die Möglichkeit, mithilfe eines Backoffice innerhalb der eigenen Firma oder über den FIZ AutoDoc-Service eine individuelle Beschaffung zu beauftragen. Für das Volltextmanagement im Intranet stehen neben den eigentlichen Bestell- und Lieferfunktionen weitere Funktionen wie die Integration in vorhandene Linkresolver (z. B. SFX), die Einbindung eigener Bibliotheksbestände oder ausgefeilte Statistikfunktionen zur Verfügung."
    Date
    22. 2.2009 19:15:26

Types

  • el 44
  • b 3
  • More… Less…

Themes