Search (4553 results, page 2 of 228)

  1. Münnich, K.; Reichelt, D.: XML-Helfer : Acht XML-Werkzeuge im Vergleich (2003) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 1890) [ClassicSimilarity], result of:
            0.10265854 = score(doc=1890,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 1890, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=1890)
          0.055571117 = weight(_text_:22 in 1890) [ClassicSimilarity], result of:
            0.055571117 = score(doc=1890,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 1890, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1890)
      0.5 = coord(1/2)
    
    Abstract
    Die Extensible Markup Language (XML) eignet sich ideal für die plattformübergreifende Verarbeitung von Daten. Internet Pro prüft, welche kommerziellen XML-Editoren Entwickler am besten unterstützen. Vergleich mit der Freeware Peter's XML Editor
    Date
    25.10.2003 18:22:41
  2. Leskien, H.: ¬Der lange Weg des Bibliotheksverbunds Bayern zu einem Ablösesystem für BVB-KAT (2001) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 1774) [ClassicSimilarity], result of:
            0.10265854 = score(doc=1774,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 1774, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=1774)
          0.055571117 = weight(_text_:22 in 1774) [ClassicSimilarity], result of:
            0.055571117 = score(doc=1774,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 1774, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1774)
      0.5 = coord(1/2)
    
    Abstract
    Nach dem Scheitern des gemeinschaftlichen Projekts von vier Verbundregionen musste der Bibliotheksverbund Bayern rasch die nicht Jahr-2000-fähige Verbundsoftware migrieren und zeitgleich die Suche nach einer geeigneten neuen Verbundsoftware fortsetzen. Durch Hochrüstung von Hard- und Software wurde das Jahr 2000 konfliktlos erreicht. Das neue Verbundkonzept sieht eine veränderte Arbeitsteilung zwischen zentral gehaltenen bibliographischen Daten und den Bestandsdaten auf der Ebene der Lokalsysteme vor. Hierfür werden Anforderungen definiert.
    Date
    22. 3.2008 13:54:28
  3. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 4427) [ClassicSimilarity], result of:
            0.10265854 = score(doc=4427,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
          0.055571117 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
            0.055571117 = score(doc=4427,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
      0.5 = coord(1/2)
    
    Abstract
    Künstliche Intelligenz kann lernen anhand von Erfahrungen und Vorgaben. Das Problem ist aber, dass sich maschinelles Lernen zwar in eine bestimmte Richtung steuern lässt, um bestimmte Probleme zu lösen, dass aber der Programmierer mitunter nicht mehr weiß, was in dem "künstlichen Gehirn" bzw. dem neuronalen Netzwerk vor sich geht, das mit zunehmender Komplexität und Lernerfahrung für den Menschen zur Black Box wird, wo man nur sehen kann, was an Daten einfließt und was herauskommt.
    Date
    22. 1.2018 11:08:27
  4. Rieth, D.: Erstellung eines Diabetes Portals für einen mittelständischen Verlag auf XML-Basis (2001) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 5878) [ClassicSimilarity], result of:
            0.10888583 = score(doc=5878,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 5878, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=5878)
          0.041678336 = weight(_text_:22 in 5878) [ClassicSimilarity], result of:
            0.041678336 = score(doc=5878,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 5878, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=5878)
      0.5 = coord(1/2)
    
    Abstract
    Ein mittelständischer Verlag kann sehr schwer vor allem retrospektiv auf XML umstellen, um seine Internetanwendungen zukunftsträchtig zu organisieren. Der Einsatz von Microsoft Word und der systematische Einsatz von Stylesheets war ein pragmatischer Ansatz, sieben Zeitschriften in nur drei Monaten via XML ins Internetportal zu bringen. Daneben musste ein Konzept für eine Adressdatenbank und Termindatenbank gefunden werden, deren Daten direkt online publiziert werden sollten. Zudem musste die Integration der Abonnentendatendaten zum Zugriffsschutz eingebaut werden, aber direkte Eingabe online von neuen Daten neben der offiziellen Datenbank gewährleistet sein. Webdesign und Webhosting rundeten das Full Service Konzept ab, eine vollständige Automatisierung aller Updateprozesse wurde angestrebt, um wirtschaftlich arbeiten zu können. Der Vortrag erklärt das Gesamtkonzept, vertieft die XML-Aufbereitung und konkretisiert die automatisierten Prozesse des Updates und die schnelle Durchführung des Projektes, ohne dass der Verlag über spezifisches Internet Know-how verfügen muss
    Date
    17. 5.2001 20:11:22
  5. Lautenschlager, M.; Sens, I.: Konzept zur Zitierfähigkeit wissenschaftlicher Primärdaten (2003) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 2007) [ClassicSimilarity], result of:
            0.10888583 = score(doc=2007,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 2007, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=2007)
          0.041678336 = weight(_text_:22 in 2007) [ClassicSimilarity], result of:
            0.041678336 = score(doc=2007,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 2007, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2007)
      0.5 = coord(1/2)
    
    Abstract
    Wissenschaftliche Primärdaten werden hier verstanden als Primärdaten gekoppelt mit ihrer bibliographischen Beschreibung (Metadaten). Im wissenschaftlichen Bereich besteht zwar grundsätzlich Bereitschaft, Daten zur Verfügung zu stellen, aber die erforderliche Mehrarbeit für Aufbereitung, Kontextdokumentation und Oualitätssicherung wird üblicherweise nicht anerkannt. Die klassische Form der Verbreitung wissenschaftlicher Ergebnisse ist ihre Veröffentlichung in Fachzeitschriften. Derartige Zeitschriftenartikel werden im "Citation Index" erfasst. Dieser Index wird zur Leistungsbewertung von Wissenschaftlern herangezogen. Datenveröffentlichungen werden darin bisher nicht berücksichtigt. Arbeitshypothese ist ein "Scientific and Technical Data - DOI" in der Verantwortung der Wissenschaften. Eine solche Organisation von Primärdaten-DOI im Bereich der Wissenschaften erlaubt beispielsweise Zugangsregelungen ohne kommerziellen Hintergrund und das Urheberrecht könnte bei den Datenproduzenten verbleiben. Im Rahmen einer DFG finanzierten CODATA-Arbeitsgruppe wurden Defizite in der Verfügbarkeit wissenschaftlicher Daten, insbesondere zur interdisziplinären Datennutzung, identifiziert und die Ursachen analysiert. Ein Konzept zur Verbesserung der elektronischen Datenbereitstellung, basierend auf dem DOI, wird vorgestellt und Möglichkeiten zur Umsetzung aufgezeigt. (Abkürzungen im Text sind im Anhang aufgelistet.)
    Date
    28.11.2004 13:09:22
  6. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 4183) [ClassicSimilarity], result of:
            0.10888583 = score(doc=4183,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 4183, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
          0.041678336 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
            0.041678336 = score(doc=4183,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 4183, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
      0.5 = coord(1/2)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
    Date
    30. 1.2007 18:22:15
  7. Zedlitz, J.: Biographische Normdaten : ein Überblick (2017) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 3502) [ClassicSimilarity], result of:
            0.10888583 = score(doc=3502,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 3502, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=3502)
          0.041678336 = weight(_text_:22 in 3502) [ClassicSimilarity], result of:
            0.041678336 = score(doc=3502,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 3502, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3502)
      0.5 = coord(1/2)
    
    Abstract
    Um das Leben und Werk historischer Personen und historische Ereignisse verstehen zu können, benötigen Wissenschaftler als primäre Quelle historische Dokumente. Das Entdecken und Auffinden dieser Dokumente in Archiven ist seit jeher eine aufwändige Aufgabe. In vielen Fällen ist sie mit einer großen Portion Glück verbunden, die richtige Archivalie im Bestand ausfindig zu machen. Mit Katalogen und anderen Findmitteln helfen Archive Forschern bereits beim Aufspüren dieser Quellen. Um Material zu einer bestimmten Person auffindbar zu machen, werden in der Regel biographische Normdaten bereitgehalten, die als Einstiegspunkt in eine Suche dienen. Der Begriff "Normdaten" kann unter zwei Aspekten verstanden werden: 1. Vergabe und Verwendung einer eindeutigen Kennung für eine Person, um sie in verschiedenen Systemen zu finden und 2. als eine normierte Schreibweise, um biographische Daten zu einer Person so aufzuschreiben, dass die Daten interoperabel, also auch außerhalb des ursprünglichen Systems (nach-)genutzt werden können.
    Source
    Archivar. 70(2017) H.1, S.22-25
  8. TIB weltweit erste zentrale Registrierungsagentur für Primärdaten (2005) 0.07
    0.07128065 = product of:
      0.1425613 = sum of:
        0.1425613 = sum of:
          0.11477575 = weight(_text_:daten in 3997) [ClassicSimilarity], result of:
            0.11477575 = score(doc=3997,freq=10.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.4703466 = fieldWeight in 3997, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=3997)
          0.027785558 = weight(_text_:22 in 3997) [ClassicSimilarity], result of:
            0.027785558 = score(doc=3997,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 3997, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3997)
      0.5 = coord(1/2)
    
    Content
    "Die TI B ist die weltweit erste Registrierungsagentur fürwissenschaftliche Primärdaten. In Zusammenarbeit mit dem Weltklimadatenzentrum am Max-Planck-Institut für Meteorologie (Hamburg), dem Geoforschungszentrum (Potsdam), dem Weltdatenzentrum MARE am Alfred-Wegener-Institut (Bremerhaven) und der Universität Bremen sowie dem Forschungszentrum L3S (Hannover) wurde das DFG-finanzierte Projekt Codata »Publikation und Zitierfähigkeit wissenschaftlicher Primärdaten« 2004 mit dem Ziel aus der Taufe gehoben, den Zugang zu wissenschaftlichen Primärdaten zu verbessern. In Codata wurde ein Modell entwickelt, welches erstmals den Nachweis und die Zitierfähigkeit von Primärdaten ermöglicht und eine dauerhafte Adressierbarkeit gewährleistet. Nutznießer dieses neuen Verfahrens sind in erster Linie Wissenschaftler, die eigene Primärdaten erheben, sowie diejenigen, die diese Daten für eigene, weiterführende Arbeiten nutzen wollen. Der klassische Weg der Veröffentlichung von Forschungsergebnissen führt über Aufsätze in Fachzeitschriften, welche im »Citation Index« aufgelistet werden. Anhand dessen findet eine Leistungsbewertung der Wissenschaftler statt. Veröffentlichungen von Primärdaten, die für Wissenschaftler zusätzliche Arbeit hinsichtlich Aufbereitung, Dokumentation und Qualitätssicherung bedeuten, wurden bisher nicht in die Bewertung mit aufgenommen. Wissenschaftliches Fehlverhalten in der Vergangenheit führte zu den so genannten »Regeln zur guten wissenschaftlichen Praxis«, empfohlen von der Deutschen Forschungsgemeinschaft (DFG). Diese Regeln beinhalten Richtlinien hinsichtlich Datenzugang und Langzeitarchivierung. Daten, die allgemein verfügbaren Publikationen zugrunde liegen, sollen auch für andere überprüfbar und ihre Erhebung nachvollziehbar sein. Gleichzeitig trägt Codata der seit langem formulierten Forderung nach freiem Online-Zugang zu jeder Art wissenschaftlicher Information Rechnung und unterstützt damit die Open Access-Initiative. Das neue Konzept der Zitierfähigkeit von Primärdaten verbindet wissenschaftliche Langzeitarchive mit traditionellen Bibliothekskatalogen, um wissenschaftliche Daten nachweisbar und zusammen mit alternativen Informationsressourcen suchbarzu machen. Die TIB speichert die Informationen zu den Primärdaten ab und versieht die Daten mit einer eindeutigen Identifikationsnummer, einem Digital Object Identifier (DOI). Nun ist jeder Wissenschaftler in der Lage, die Daten in seiner Arbeit mit der DOI als einzigartiger Kennung zu zitieren. Zitiert werden Autor, Jahr der Veröffentlichung, Titel sowie der DOI als einzigartige Zugangskennung. Wissenschaftliche Primärdaten bekommen dadurch eine eigene Identität und können als unabhängige, eigenständige Informationseinheit genutzt werden. Inzwischen wurden bereits 220000 Datensätze in der TIB registriert. Vierzig Datensätze sind mittlerweile über Tiborder, das Bestell- und Liefersystem der TIB, nachweisbar und zugänglich. Bis Ende des Jahres sollen rund 1,5 Millionen Datensätze von der TIB registriert sein. Zurzeit sind vornehmlich Messdaten aus dem Gebiet der Geowissenschaften registriert, ab 2006 wird die Registrierung von Primärdaten auch auf andere Sammelgebiete ausgeweitet."
    Date
    22. 9.2005 19:38:42
  9. Capurro, R.: Wissensmanagement in Theorie und Praxis (1998) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 2848) [ClassicSimilarity], result of:
            0.089826226 = score(doc=2848,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 2848, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2848)
          0.048624728 = weight(_text_:22 in 2848) [ClassicSimilarity], result of:
            0.048624728 = score(doc=2848,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 2848, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2848)
      0.5 = coord(1/2)
    
    Abstract
    Das Management von Daten, Information und wissen prägt die aktuelle Theorie und Praxis unternehmerischen Handelns. Der hier gewählte Einstieg in die theoretische Diskussion bildet der klassische Ansatz von I. Nonaka und H. Takeuchi über kreative Prozesse im Umgang mit der Wissensressource in Unternehmen. Es wird dabei auf Rezeption und Kritik dieses Ansatzes durch G. Schreyögg, Chr. Noss, D.B. Bürgel, A. Zeller und P. Reinmöller eingegangen. Im zweiten Teil, der sich mit der Praxis des Wissensmanagements befaßt, werden Beispiele aus Nonaka/Takeuchi sowie aus den von Th. Davenport und L. Prusak in ihrem Buch 'Working knowledge' (1997) analysierten Fällen aufgeführt. Die Darstellung schließt mit Hinweisen auf deutsche Unternehmen sowie auf Veranstaltungen und Websites zu diesem Thema. Der Ausblick gibt Auskunft über die Bedeutung von Wissensmanagement in der FH Stuttgart (HBI)
    Source
    Bibliothek: Forschung und Praxis. 22(1998) H.3, S.344-353
  10. Weisel, L.; Vogts, I.; Bürk, K.: Mittler zwischen Content und Markt : Die neue Rolle des FIZ Karlsruhe (2000) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 5437) [ClassicSimilarity], result of:
            0.089826226 = score(doc=5437,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 5437, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5437)
          0.048624728 = weight(_text_:22 in 5437) [ClassicSimilarity], result of:
            0.048624728 = score(doc=5437,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 5437, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5437)
      0.5 = coord(1/2)
    
    Abstract
    Das Fachinformationszentrum (FIZ) Karlsruhe ist als internationale Drehscheibe für Fachinformation seit Jahrzehnten verlässlicher und professioneller Servicepartner der Informationssuchenden in Wissenschaft und Technik. Neue web-basierte Dienstleistungen und Produkte erlauben dem professionellen Informationsbroker ebenso wie dem gelegentlichen Onliner oder Internet Pedestrian den effizienten und kostengünstigen Zugang zu Metadaten, naturwissenschaftlich-technisehen Daten und Fakten. Elektronische Volltexte per Hyperlink oder die komplette Dokument-Vermittlung werden gleichfalls angeboten. Die Weiterentwicklung und flexible Anpassung der Informationssysteme ermöglichen auch die Verknüpfung mit lokalen und regionalen Netzen der Forschungseinrichtungen und Hochschulen. Neue Serviceleistungen und Abrechnungsverfahren bieten besonders preisgünstige Konditionen für Hochschulen durch akademische Programme und Festpreise auf Subskriptionsbasis für ausgewählte Datenbanken. Darüber hinaus ist das FIZ Karlsruhe kompetenter Kooperationspartner bei Entwicklung und Betrieb von Informationssystemen
    Date
    6.11.2000 18:05:22
  11. Meadows, J.: Understanding information (2001) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 3067) [ClassicSimilarity], result of:
            0.089826226 = score(doc=3067,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 3067, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3067)
          0.048624728 = weight(_text_:22 in 3067) [ClassicSimilarity], result of:
            0.048624728 = score(doc=3067,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 3067, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3067)
      0.5 = coord(1/2)
    
    Abstract
    Die moderne Gesellschaft leidet an Reizüberflutung durch Fernsehen, Internet, Zeitschriften aller Art. Jack Meadows, Professor für Bibliotheks- und Informationswissenschaft setzt sich mit Definitionen zu Begriffen wie 'Data', 'Information', 'Communication' oder 'Knowledge' auseinander, die für uns alläglich geworden sind. wie verarbeiten wir den Fluss von wichtigen und unwichtigen Informationen, der täglich auf uns einströmt? Welche 'Daten' sind es für uns Wert, gespeichert zu werden, welche vergessen wir nach kurzer Zeit? Wann wird aus Information Wissen oder gar Weisheit? Das Buch ist eine grundlegende Einführung in das weitläufige Thema Information und Wissensmanagement
    Date
    15. 6.2002 19:22:01
  12. OCLC: Literaturnachweise des Gemeinsamen Bibliotheksverbundes (GBV) für WorldCat (2006) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 6096) [ClassicSimilarity], result of:
            0.089826226 = score(doc=6096,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 6096, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=6096)
          0.048624728 = weight(_text_:22 in 6096) [ClassicSimilarity], result of:
            0.048624728 = score(doc=6096,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 6096, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=6096)
      0.5 = coord(1/2)
    
    Abstract
    Mit den Literaturnachweisen des OCLC PICA Partners - des Gemeinsamen Bibliotheksverbunds (GBV) - wird WorldCat um einen weiteren großen deutschen Datenbestand erweitert. Die entsprechende Rahmenvereinbarung zwischen der OCLC PICA GmbH und dem GBV wurde am anlässlich des OCLC PICA Partner Update Meetings in Oberhaching unterzeichnet. Nach Zustimmung durch die betroffenen Bibliotheken werden ca. 22 Mio. Titelsätze an WorldCat geliefert. Dazu gehören die Bestände der Stiftung Preußischer Kulturbesitz einschließlich Staatsbibliothek zu Berlin und aller Hochschulbibliotheken in den sieben zum GBV gehörenden Bundesländern. OCLC wird diese Daten in Absprache mit den Bibliotheken kontrolliert an Internetsuchmaschinen wie Google und Yahoo weitergeben. Damit wird neben den Titel- und Besitznachweisen der Niedersächsischen Staats- und Universitätsbibliothek Göttingen und der Bayerischen Staatsbibliothek eine weitere große deutsche Titelsammlung via Internet weltweit recherchierbar sein.
  13. Sauermann, L.; Kiesel, M.; Schumacher, K.; Bernardi, A.: Semantic Desktop (2009) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 2416) [ClassicSimilarity], result of:
            0.089826226 = score(doc=2416,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 2416, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2416)
          0.048624728 = weight(_text_:22 in 2416) [ClassicSimilarity], result of:
            0.048624728 = score(doc=2416,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 2416, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2416)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Beitrag wird gezeigt, wie der Arbeitsplatz der Zukunft aussehen könnte und wo das Semantic Web neue Möglichkeiten eröffnet. Dazu werden Ansätze aus dem Bereich Semantic Web, Knowledge Representation, Desktop-Anwendungen und Visualisierung vorgestellt, die es uns ermöglichen, die bestehenden Daten eines Benutzers neu zu interpretieren und zu verwenden. Dabei bringt die Kombination von Semantic Web und Desktop Computern besondere Vorteile - ein Paradigma, das unter dem Titel Semantic Desktop bekannt ist. Die beschriebenen Möglichkeiten der Applikationsintegration sind aber nicht auf den Desktop beschränkt, sondern können genauso in Web-Anwendungen Verwendung finden.
    Date
    3. 1.2012 16:00:22
  14. #220 0.07
    0.06876575 = product of:
      0.1375315 = sum of:
        0.1375315 = product of:
          0.275063 = sum of:
            0.275063 = weight(_text_:22 in 219) [ClassicSimilarity], result of:
              0.275063 = score(doc=219,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                1.5320505 = fieldWeight in 219, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.21875 = fieldNorm(doc=219)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 5.1998 20:02:22
  15. #1387 0.07
    0.06876575 = product of:
      0.1375315 = sum of:
        0.1375315 = product of:
          0.275063 = sum of:
            0.275063 = weight(_text_:22 in 1386) [ClassicSimilarity], result of:
              0.275063 = score(doc=1386,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                1.5320505 = fieldWeight in 1386, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.21875 = fieldNorm(doc=1386)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 5.1998 20:02:22
  16. #2103 0.07
    0.06876575 = product of:
      0.1375315 = sum of:
        0.1375315 = product of:
          0.275063 = sum of:
            0.275063 = weight(_text_:22 in 2102) [ClassicSimilarity], result of:
              0.275063 = score(doc=2102,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                1.5320505 = fieldWeight in 2102, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.21875 = fieldNorm(doc=2102)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 5.1998 20:02:22
  17. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.07
    0.067858756 = product of:
      0.13571751 = sum of:
        0.13571751 = product of:
          0.4071525 = sum of:
            0.4071525 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.4071525 = score(doc=1826,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  18. Zschunke, P.: "Mehr Informationen als die Stasi je hatte" : Soziale Netzwerke (2008) 0.07
    0.0656622 = product of:
      0.1313244 = sum of:
        0.1313244 = sum of:
          0.10185336 = weight(_text_:daten in 1308) [ClassicSimilarity], result of:
            0.10185336 = score(doc=1308,freq=14.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.41739118 = fieldWeight in 1308, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1308)
          0.029471038 = weight(_text_:22 in 1308) [ClassicSimilarity], result of:
            0.029471038 = score(doc=1308,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.16414827 = fieldWeight in 1308, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1308)
      0.5 = coord(1/2)
    
    Content
    "Millionen von Internet-Nutzern drängen in soziale Netze wie StudiVZ und Facebook. Diese Online-Plattformen für die Vernetzung von persönlichen Web-Auftritten entwickeln sich zu einer neuen Art von Massenmedium, wie der Digitale-Medien-Experte Hendrik Speck sagt. Völlig offen sei aber bislang die Frage nach der gesellschaftlichen Verantwortung der "Social Networks". "Die haben mehr Informationen, als die Stasi je hatte", sagt der Informatik-Professor der Fachhochschule Kaiserslautern im Gespräch mit der Nachrichtenagentur AP. Bei den drei Plattformen Facebook, MySpace und Xing hat Speck insgesamt 120 persönliche Attribute gezählt, die auf den persönlichen Seiten der Mitglieder angegeben werden können - angefangen bei Alter und Wohnort über Lieblingsfilme und -musik bis hin zu politischer Neigung und sexueller Ausrichtung. "Wir sehen da einen völlig irrationalen Zugang zu den eigenen Daten", kritisiert der Social-Networks-Forscher. Was aber treibt die Internet-Nutzer zu dieser Art von "digitalem Exhibitionismus"? Speck und seine Studenten haben die Kommunikation in den Netzen mit Hilfe von Software-Agenten und "Crawlern" zu erfassen versucht - das sind Programme, die auf die Seiten dieser Communities vordringen und die Inhalte auswerten. "Wir stellen fest, dass da unheimlich viel offen liegt", sagt Speck. Suche nach Anerkennung und Aufmerksamkeit Als wichtige Antriebskraft hat der Wissenschaftler das Motiv ausgemacht, über den stetig wachsenden Kreis von registrierten "Freunden" Anerkennung und Aufmerksamkeit zu erringen. Bei MySpace oder im SchülerVZ kann sich jeder auf eine Weise präsentieren, wie es in den klassischen Medien kaum möglich ist. Und weil die persönlichen Profile mit wenigen Mausklicks schnell erstellt sind, ist die Eintrittsschwelle sehr viel geringer als bei den Netz-Communities der ersten Stunde, etwa der schon 1985 gegründeten virtuellen Gemeinschaft "The WELL".
    Bislang sind es meist Jugendliche und junge Erwachsene bis etwa 35, die die Mehrheit der Community-Mitglieder ausmachen. Es gebe aber Bestrebungen, die Altersgruppe nach oben zu erweitern, sagt Speck. Die soziale Interaktion in den Social Networks kreist nach seinen Erkenntnissen immer wieder um die gleichen Dinge: 1) Unterhaltung - von Musik bis zu Stars und Sternchen 2) die gesellschaftlich geteilte Schadenfreude nach dem Motto "Pleiten, Pech und Pannen" 3) Flirten und sexuelle Beziehungen. Dabei kommen Männer direkter auf den Punkt als Frauen, die dies hinter anderen Interessen verstecken. Auf der anderen Seite stehen die Betreiber der Netze. Diese erzielen mit der Bereitstellung der Plattform zwar bislang meist noch keine Gewinne, haben aber wegen der gigantischen Zuwachsraten das Interesse von Internet- und Medienunternehmen geweckt, die wie Microsoft oder die Verlagsgruppe Holtzbrinck in Social Networks investieren. Der einzelne Nutzer ist 20 bis 22 Dollar wert Da die Technik der Webseiten nicht besonders aufwendig sei, liege der eigentliche Reichtum in den Nutzern und ihren Daten, erklärt Speck. Bei den großen Plattformen in den USA lasse sich aus den getätigten Investitionen für die Social Networks der Wert eines einzelnen Nutzers auf einen Betrag von 20 bis 22 Dollar (14 bis 15 Euro) schätzen. Der Gegenwert, den die Nutzer liefern sollen, wird vor allem in der Werbung gesehen. Neben der klassischen Bannerwerbung auf den eigenen Seiten versuchen die Betreiber der sozialen Netzwerke nach Darstellung Specks, in andere Dienste wie SMS-Werbung oder E-Mail vorzudringen. Um die Werbe-Zielgruppen immer feiner zu erfassen, werde auch untersucht, wer mit welchem Profil mit wem kommuniziere. "Je tiefer die Vernetzung, desto dichter werden die Informationen", erklärt Speck.
    Der Wissenschaftler kritisiert, dass die Daten so behandelt würden, als gehörten sie nicht dem Nutzer, sondern den sozialen Netzwerken. Selbst wenn es die Möglichkeit gebe, einen Account zu löschen, blieben die Daten vielfach weiter bestehen. Und über die beliebten Mini-Anwendungen zur Integration in die eigene Profilseite erhielten auch die Entwickler dieser Applikationen einen Zugang zu den persönlichen Daten. "Da weiß man dann gar nicht, wer dahinter steckt." Weder "open" noch "social" Google hat Anfang November vergangenen Jahres unter der Bezeichung OpenSocial eine Initiative gestartet, um solche Anwendungen und Schnittstellen nach einheitlichen Standards programmieren zu können. Das Projekt sei aber weder "open" noch "social", weil nicht vorgesehen sei, den Nutzern eine transparente Kontrolle über ihre eigenen Daten zu geben, bemängelt der FH-Professor. Das Projekt bemühe sich um die "Datenportabilität" zwischen den kommerziellen Projektpartnern und unterstütze die Interaktionen zwischen einzelnen Communities, versage jedoch komplett bei der Interessenswahrnehmung der Nutzer in Hinblick auf informationelle Selbstbestimmung und einem verbesserten Schutz der Privatssphäre. Um die zahlreichen offenen Fragen nach der Verantwortung für die Millionen von persönlichen Daten zu klären, schlägt Speck einen Verhaltenskodex für soziale Netzwerke vor. Für die gemeinsame Entwicklung von ethischen Grundsätzen will er neben Datenschützern auch die Betreiber der Communities gewinnen und hofft, schon in wenigen Monaten eine entsprechende Initiative vorstellen zu können. http://www.hendrikspeck.com"
  19. Scheerer, H.: Gülich online : Die Retrokonversion des Zettelkatalogs der Bundestagsbibliothek (2007) 0.07
    0.06522205 = product of:
      0.1304441 = sum of:
        0.1304441 = sum of:
          0.10265854 = weight(_text_:daten in 513) [ClassicSimilarity], result of:
            0.10265854 = score(doc=513,freq=8.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 513, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=513)
          0.027785558 = weight(_text_:22 in 513) [ClassicSimilarity], result of:
            0.027785558 = score(doc=513,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 513, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=513)
      0.5 = coord(1/2)
    
    Abstract
    Konzeptionelle Grundlagen Das Jahr 2006 stand für die Bundestagsbibliothek im Zeichen der Retrokonversion. Die Daten von 839.000 Karten des Verfasser- und Titelkatalogs des Gülichschen Katalogsystems, die den Bestand bis 1986 nachweisen, wurden maschinenlesbar gemacht und in den elektronischen Katalog der Bibliothek eingespielt. Damit ist nunmehr der Gesamtbestand der Bibliothek sowohl im Intranet des Bundestages als auch im Internet recherchierbar. Mit der Retrokonversion verfolgte die Bundestagsbibliothek zwei zentrale Ziele. Erstens sollte eine integrierte Recherche von Alt- und Neudaten ermöglicht werden, zweitens sollte der Bestand bis 1986 mit demselben Komfort direkt entleih-bar, vormerkbar und verlängerbar sein wie der Bestand ab 1987. Aufgrund der finanziellen Rahmenbedingungen des Projekts einerseits und der Ausgangssituation im Kartenkatalog andererseits mussten bezüglich der Suchmöglichkeiten Unterschiede zwischen Alt- und Neudaten festgelegt werden. Analog zu der beim Aufbau des HEBIS-Retrokataloges verfolgten Philosophie wurde seitens der Bibliothek entschieden, dass man die zu konvertierenden Daten über die wichtigsten Sucheinstiege wie Verfasser, Hauptsachtitel und Erscheinungsjahr finden können sollte. Ein Sucheinstieg über Schlagwörter wurde hingegen des seinerzeit für die Sacherschließung verwendeten, nicht-natürlichsprachlichen Vokabulars und der zahlreichen Abkürzungen auf den Katalogkarten wegen als nicht sinnvoll erachtet. Im Unterschied zum HEBIS-Retroprojekt entschied sich die Bundestagsbibliothek jedoch, Alt- und Neudaten in einer gemeinsamen Datenbank zusammenzuführen. Der Vorteil der integrierten Recherche überwog die Bedenken, dass die Daten auf der Grundlage zweier unterschiedlicher, formaler Regelwerke (Gülich/RAK-PB) erstellt worden waren.
    Neben der integrierten Recherche war die Realisierung einer direkten Bestell- und Ausleihmöglichkeit des Altbestands konzeptioneller Kernpunkt des Projekts. Dabei stellte sich jedoch ein grundlegendes Problem: Mehr als die Hälfte, nämlich knapp 425.000 der zu konvertierenden Katalogkarten waren Aufsatzkatalogisate. Die für eine Ausleihe notwendigen Verknüpfungen zu den ausleihfähigen, übergeordneten Gesamtheiten konnten nicht automatisch erzeugt werden, hier mussten Umgehungslösungen gefunden werden. Die Vorgehensweise bei der Retrokonversion ergab sich aus den konzeptionellen Grundüberlegungen einerseits und der Nichtzugehörigkeit der Bundestagsbibliothek zu einem überregionalen Verbund andererseits. Von vornherein schied daher die Variante aus, bereits vorhandene Datensätze eines eigenen Verbundes als Ausgangspunkt für die Retrokonversion zu nehmen und gleichzeitig den Aufsatzbestand neu zu katalogisieren - ein Weg, wie ihn die Deutsche Zentralbibliothek für Wirtschaftswissenschaften in Kiel beschritten hat, die gleichfalls einen Gülich-Katalog zu konvertieren hattet. Stattdessen verlief das Retrokonversionsprojekt der Bundestagsbibliothek zweigeteilt. Im Zuge einer europaweiten Ausschreibung mit vorgeschaltetem Teilnehmerwettbewerb wurde die Firma Satz-Rechen-Zentrum GmbH, die schon zahlreiche Katalogkonversionen erfolgreich durchgeführt hat, beauftragt, die Daten der Katalogkarten zu konvertieren und für eine Einspielung in die Bibliotheksdatenbank zu Verfügung zu stellen. Die Einspielung selbst wurde von der Firma ASTEC GmbH vorgenommen, welche die in der Bundestagsbibliothek eingesetzte Katalogsoftware aDIS/BMS entwickelt hat.
    Date
    22. 8.2007 11:43:43
  20. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.07
    0.06522205 = product of:
      0.1304441 = sum of:
        0.1304441 = sum of:
          0.10265854 = weight(_text_:daten in 2403) [ClassicSimilarity], result of:
            0.10265854 = score(doc=2403,freq=8.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 2403, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
          0.027785558 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
            0.027785558 = score(doc=2403,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
      0.5 = coord(1/2)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22

Languages

Types

  • a 3697
  • m 490
  • el 258
  • s 179
  • x 78
  • b 44
  • i 30
  • r 30
  • n 10
  • ? 9
  • p 7
  • d 4
  • u 2
  • z 2
  • au 1
  • h 1
  • More… Less…

Themes

Subjects

Classifications