Search (1747 results, page 1 of 88)

  • × year_i:[2000 TO 2010}
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.10
    0.10226967 = sum of:
      0.0814305 = product of:
        0.2442915 = sum of:
          0.2442915 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
            0.2442915 = score(doc=562,freq=2.0), product of:
              0.43466842 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.051270094 = queryNorm
              0.56201804 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.33333334 = coord(1/3)
      0.020839168 = product of:
        0.041678336 = sum of:
          0.041678336 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
            0.041678336 = score(doc=562,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.5 = coord(1/2)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Breyer, K.: Kommerz statt Information (2002) 0.10
    0.09889354 = product of:
      0.19778708 = sum of:
        0.19778708 = sum of:
          0.12832318 = weight(_text_:daten in 568) [ClassicSimilarity], result of:
            0.12832318 = score(doc=568,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.52586347 = fieldWeight in 568, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.078125 = fieldNorm(doc=568)
          0.0694639 = weight(_text_:22 in 568) [ClassicSimilarity], result of:
            0.0694639 = score(doc=568,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.38690117 = fieldWeight in 568, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=568)
      0.5 = coord(1/2)
    
    Abstract
    Äußerst schwache Leistungen liefern die meisten Suchmaschinen, wenn aktuelle Infos gefragt sind. Stattdessen wird zu viel versteckte Werbung gezeigt. PCpro erklärt, wie User aktuelle Daten finden
    Date
    9. 5.2002 21:21:22
  3. Semar, W.: Kryptografie (2004) 0.10
    0.095947556 = product of:
      0.19189511 = sum of:
        0.19189511 = sum of:
          0.15716316 = weight(_text_:daten in 2956) [ClassicSimilarity], result of:
            0.15716316 = score(doc=2956,freq=12.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.6440486 = fieldWeight in 2956, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2956)
          0.03473195 = weight(_text_:22 in 2956) [ClassicSimilarity], result of:
            0.03473195 = score(doc=2956,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 2956, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2956)
      0.5 = coord(1/2)
    
    Abstract
    Kryptografie ist die Lehre von der Verschlüsselung von Daten und den Techniken, die zur Realisierung derselben verwendet werden. Sie hat längst die Grauzone der Spionage und des Militärbereichs überschritten und ist als Schlüsseltechnik für die Absicherung weltweiter Computernetze von zentraler Bedeutung. Die Art und vor allem die Menge der Daten, die schützenswert sind, haben sich mit der Verbreitung elektronischer Datenverarbeitung deutlich gewandelt. Es werden nicht nur im Berufs-, sondern auch zunehmend im Privatleben Informationen vor unberechtigtem Zugriff und vor Manipulation geschützt. Verschlüsselungsverfahren kommen im Rahmen der Datenübertragung, besonders in offenen Netzen wie dem Internet, eine besondere Bedeutung zu. Die Kryptografie soll die Vertraulichkeit von Daten ermöglichen. Schließlich hat jede Person und jede Organisation ein legitimes Interesse an dem Schutz ihrer Daten vor Ausspähung. Neben dem offensichtlichen Zweck der Geheimhaltung muss die Kryptografie weitere, grundlegende Kriterien erfüllen wie die Integrität, die Authentizität und die Verbindlichkeit beim Austausch von empfindlichen Daten. Diese vier Kriterien müssen erfüllt sein, wenn eine optimale Datensicherheit gewährleistet sein soll. Für jedes Kriterium gibt es eigene Lösungsmöglichkeiten, die Kunst liegt darin, mit einem Verschlüsselungssystem möglichst alle vier Kriterien gleichzeitig zu erfüllen. Ein weiteres Ziel kann in manchen Situationen Anonymität sein, z. B. beim elektronischen Geld. Darunter wird die Vertraulichkeit nicht des Nachrichteninhalts, sondern sogar des vollständigen Kommunikationsvorgangs als solchem verstanden. Genau genommen muss zwischen der Kryptografie, die sich mit der Verschlüsselung von Daten beschäftigt, und der Kryptoanalyse, die sich mit derer Entschlüsselung beschäftigt, unterschieden werden. Der Oberbegriff für beide Disziplinen ist Kryptologie.
    Date
    5. 4.2013 10:22:37
  4. Graumann, S.; Bredemeier, W.; Köhne, B.: Aktualisierte Grundlagenstudie zur Informationswirtschaft : Im Auftrag des Bundeswirtschaftsministeriums (2002) 0.09
    0.08751786 = product of:
      0.17503572 = sum of:
        0.17503572 = sum of:
          0.13335738 = weight(_text_:daten in 616) [ClassicSimilarity], result of:
            0.13335738 = score(doc=616,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.5464934 = fieldWeight in 616, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=616)
          0.041678336 = weight(_text_:22 in 616) [ClassicSimilarity], result of:
            0.041678336 = score(doc=616,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 616, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=616)
      0.5 = coord(1/2)
    
    Abstract
    Mit insgesamt sechs halbjährlichen Faktenberichten, ergänzt durch jährliche Trendberichte, analysieren NFO Infratest Bereich Information und Dokumentation, München und das Institute for Information Economics, Hattingen, im Auftrag des Bundesministeriums für Wirtschaft und Technologie bis zum Jahr 2003 den Entwicklungsstand der Informationswirtschaft und seiner Teilmärkte in Deutschland im weltweiten Vergleich. Der vierte Faktenbericht ist eine internationale Benchmarking-Studie, die die deutsche Informationswirtschaft im Vergleich zu Europa, USA und Japan beschreibt. Es werden verlässliche und aktuelle Daten zurMarktentwicklung ermittelt und über mehrere Jahre fortgeschrieben. 26 Prozent der Daten enthalten Prognosen bis 2010, 41 Prozent werden zusätzlich in Zeitreihen (1999 bis 2005) dargestellt die wichtigsten Daten werden in Form von 436 Charts visualisiert. Der Trendbericht ergänzt diese Darstellung durch eine Befragung deutscher Experten, die ein differenziertes und umfassendes Meinungs- und Stimmungsbild der Informationswirtschaft zu den für sie zentralen Fragen ergeben und auf bevorstehende Entwicklungen in der Informationswirtschaft aufmerksam machen. DerArtikel fasst die wesentlichen Ergebnisse des 4. Faktenberichts und 2. Trendberichts zusammen. Alle Berichte sowie Charts können unentgeltlich unter http://www.infrasearch.de/bmwi heruntergeladen werden.
    Date
    28.11.2004 13:03:22
  5. Münnich, K.; Reichelt, D.: XML-Helfer : Acht XML-Werkzeuge im Vergleich (2003) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 1890) [ClassicSimilarity], result of:
            0.10265854 = score(doc=1890,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 1890, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=1890)
          0.055571117 = weight(_text_:22 in 1890) [ClassicSimilarity], result of:
            0.055571117 = score(doc=1890,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 1890, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1890)
      0.5 = coord(1/2)
    
    Abstract
    Die Extensible Markup Language (XML) eignet sich ideal für die plattformübergreifende Verarbeitung von Daten. Internet Pro prüft, welche kommerziellen XML-Editoren Entwickler am besten unterstützen. Vergleich mit der Freeware Peter's XML Editor
    Date
    25.10.2003 18:22:41
  6. Leskien, H.: ¬Der lange Weg des Bibliotheksverbunds Bayern zu einem Ablösesystem für BVB-KAT (2001) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 1774) [ClassicSimilarity], result of:
            0.10265854 = score(doc=1774,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 1774, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=1774)
          0.055571117 = weight(_text_:22 in 1774) [ClassicSimilarity], result of:
            0.055571117 = score(doc=1774,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 1774, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1774)
      0.5 = coord(1/2)
    
    Abstract
    Nach dem Scheitern des gemeinschaftlichen Projekts von vier Verbundregionen musste der Bibliotheksverbund Bayern rasch die nicht Jahr-2000-fähige Verbundsoftware migrieren und zeitgleich die Suche nach einer geeigneten neuen Verbundsoftware fortsetzen. Durch Hochrüstung von Hard- und Software wurde das Jahr 2000 konfliktlos erreicht. Das neue Verbundkonzept sieht eine veränderte Arbeitsteilung zwischen zentral gehaltenen bibliographischen Daten und den Bestandsdaten auf der Ebene der Lokalsysteme vor. Hierfür werden Anforderungen definiert.
    Date
    22. 3.2008 13:54:28
  7. Rieth, D.: Erstellung eines Diabetes Portals für einen mittelständischen Verlag auf XML-Basis (2001) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 5878) [ClassicSimilarity], result of:
            0.10888583 = score(doc=5878,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 5878, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=5878)
          0.041678336 = weight(_text_:22 in 5878) [ClassicSimilarity], result of:
            0.041678336 = score(doc=5878,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 5878, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=5878)
      0.5 = coord(1/2)
    
    Abstract
    Ein mittelständischer Verlag kann sehr schwer vor allem retrospektiv auf XML umstellen, um seine Internetanwendungen zukunftsträchtig zu organisieren. Der Einsatz von Microsoft Word und der systematische Einsatz von Stylesheets war ein pragmatischer Ansatz, sieben Zeitschriften in nur drei Monaten via XML ins Internetportal zu bringen. Daneben musste ein Konzept für eine Adressdatenbank und Termindatenbank gefunden werden, deren Daten direkt online publiziert werden sollten. Zudem musste die Integration der Abonnentendatendaten zum Zugriffsschutz eingebaut werden, aber direkte Eingabe online von neuen Daten neben der offiziellen Datenbank gewährleistet sein. Webdesign und Webhosting rundeten das Full Service Konzept ab, eine vollständige Automatisierung aller Updateprozesse wurde angestrebt, um wirtschaftlich arbeiten zu können. Der Vortrag erklärt das Gesamtkonzept, vertieft die XML-Aufbereitung und konkretisiert die automatisierten Prozesse des Updates und die schnelle Durchführung des Projektes, ohne dass der Verlag über spezifisches Internet Know-how verfügen muss
    Date
    17. 5.2001 20:11:22
  8. Lautenschlager, M.; Sens, I.: Konzept zur Zitierfähigkeit wissenschaftlicher Primärdaten (2003) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 2007) [ClassicSimilarity], result of:
            0.10888583 = score(doc=2007,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 2007, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=2007)
          0.041678336 = weight(_text_:22 in 2007) [ClassicSimilarity], result of:
            0.041678336 = score(doc=2007,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 2007, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2007)
      0.5 = coord(1/2)
    
    Abstract
    Wissenschaftliche Primärdaten werden hier verstanden als Primärdaten gekoppelt mit ihrer bibliographischen Beschreibung (Metadaten). Im wissenschaftlichen Bereich besteht zwar grundsätzlich Bereitschaft, Daten zur Verfügung zu stellen, aber die erforderliche Mehrarbeit für Aufbereitung, Kontextdokumentation und Oualitätssicherung wird üblicherweise nicht anerkannt. Die klassische Form der Verbreitung wissenschaftlicher Ergebnisse ist ihre Veröffentlichung in Fachzeitschriften. Derartige Zeitschriftenartikel werden im "Citation Index" erfasst. Dieser Index wird zur Leistungsbewertung von Wissenschaftlern herangezogen. Datenveröffentlichungen werden darin bisher nicht berücksichtigt. Arbeitshypothese ist ein "Scientific and Technical Data - DOI" in der Verantwortung der Wissenschaften. Eine solche Organisation von Primärdaten-DOI im Bereich der Wissenschaften erlaubt beispielsweise Zugangsregelungen ohne kommerziellen Hintergrund und das Urheberrecht könnte bei den Datenproduzenten verbleiben. Im Rahmen einer DFG finanzierten CODATA-Arbeitsgruppe wurden Defizite in der Verfügbarkeit wissenschaftlicher Daten, insbesondere zur interdisziplinären Datennutzung, identifiziert und die Ursachen analysiert. Ein Konzept zur Verbesserung der elektronischen Datenbereitstellung, basierend auf dem DOI, wird vorgestellt und Möglichkeiten zur Umsetzung aufgezeigt. (Abkürzungen im Text sind im Anhang aufgelistet.)
    Date
    28.11.2004 13:09:22
  9. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 4183) [ClassicSimilarity], result of:
            0.10888583 = score(doc=4183,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 4183, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
          0.041678336 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
            0.041678336 = score(doc=4183,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 4183, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
      0.5 = coord(1/2)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
    Date
    30. 1.2007 18:22:15
  10. TIB weltweit erste zentrale Registrierungsagentur für Primärdaten (2005) 0.07
    0.07128065 = product of:
      0.1425613 = sum of:
        0.1425613 = sum of:
          0.11477575 = weight(_text_:daten in 3997) [ClassicSimilarity], result of:
            0.11477575 = score(doc=3997,freq=10.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.4703466 = fieldWeight in 3997, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=3997)
          0.027785558 = weight(_text_:22 in 3997) [ClassicSimilarity], result of:
            0.027785558 = score(doc=3997,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 3997, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3997)
      0.5 = coord(1/2)
    
    Content
    "Die TI B ist die weltweit erste Registrierungsagentur fürwissenschaftliche Primärdaten. In Zusammenarbeit mit dem Weltklimadatenzentrum am Max-Planck-Institut für Meteorologie (Hamburg), dem Geoforschungszentrum (Potsdam), dem Weltdatenzentrum MARE am Alfred-Wegener-Institut (Bremerhaven) und der Universität Bremen sowie dem Forschungszentrum L3S (Hannover) wurde das DFG-finanzierte Projekt Codata »Publikation und Zitierfähigkeit wissenschaftlicher Primärdaten« 2004 mit dem Ziel aus der Taufe gehoben, den Zugang zu wissenschaftlichen Primärdaten zu verbessern. In Codata wurde ein Modell entwickelt, welches erstmals den Nachweis und die Zitierfähigkeit von Primärdaten ermöglicht und eine dauerhafte Adressierbarkeit gewährleistet. Nutznießer dieses neuen Verfahrens sind in erster Linie Wissenschaftler, die eigene Primärdaten erheben, sowie diejenigen, die diese Daten für eigene, weiterführende Arbeiten nutzen wollen. Der klassische Weg der Veröffentlichung von Forschungsergebnissen führt über Aufsätze in Fachzeitschriften, welche im »Citation Index« aufgelistet werden. Anhand dessen findet eine Leistungsbewertung der Wissenschaftler statt. Veröffentlichungen von Primärdaten, die für Wissenschaftler zusätzliche Arbeit hinsichtlich Aufbereitung, Dokumentation und Qualitätssicherung bedeuten, wurden bisher nicht in die Bewertung mit aufgenommen. Wissenschaftliches Fehlverhalten in der Vergangenheit führte zu den so genannten »Regeln zur guten wissenschaftlichen Praxis«, empfohlen von der Deutschen Forschungsgemeinschaft (DFG). Diese Regeln beinhalten Richtlinien hinsichtlich Datenzugang und Langzeitarchivierung. Daten, die allgemein verfügbaren Publikationen zugrunde liegen, sollen auch für andere überprüfbar und ihre Erhebung nachvollziehbar sein. Gleichzeitig trägt Codata der seit langem formulierten Forderung nach freiem Online-Zugang zu jeder Art wissenschaftlicher Information Rechnung und unterstützt damit die Open Access-Initiative. Das neue Konzept der Zitierfähigkeit von Primärdaten verbindet wissenschaftliche Langzeitarchive mit traditionellen Bibliothekskatalogen, um wissenschaftliche Daten nachweisbar und zusammen mit alternativen Informationsressourcen suchbarzu machen. Die TIB speichert die Informationen zu den Primärdaten ab und versieht die Daten mit einer eindeutigen Identifikationsnummer, einem Digital Object Identifier (DOI). Nun ist jeder Wissenschaftler in der Lage, die Daten in seiner Arbeit mit der DOI als einzigartiger Kennung zu zitieren. Zitiert werden Autor, Jahr der Veröffentlichung, Titel sowie der DOI als einzigartige Zugangskennung. Wissenschaftliche Primärdaten bekommen dadurch eine eigene Identität und können als unabhängige, eigenständige Informationseinheit genutzt werden. Inzwischen wurden bereits 220000 Datensätze in der TIB registriert. Vierzig Datensätze sind mittlerweile über Tiborder, das Bestell- und Liefersystem der TIB, nachweisbar und zugänglich. Bis Ende des Jahres sollen rund 1,5 Millionen Datensätze von der TIB registriert sein. Zurzeit sind vornehmlich Messdaten aus dem Gebiet der Geowissenschaften registriert, ab 2006 wird die Registrierung von Primärdaten auch auf andere Sammelgebiete ausgeweitet."
    Date
    22. 9.2005 19:38:42
  11. Weisel, L.; Vogts, I.; Bürk, K.: Mittler zwischen Content und Markt : Die neue Rolle des FIZ Karlsruhe (2000) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 5437) [ClassicSimilarity], result of:
            0.089826226 = score(doc=5437,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 5437, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5437)
          0.048624728 = weight(_text_:22 in 5437) [ClassicSimilarity], result of:
            0.048624728 = score(doc=5437,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 5437, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5437)
      0.5 = coord(1/2)
    
    Abstract
    Das Fachinformationszentrum (FIZ) Karlsruhe ist als internationale Drehscheibe für Fachinformation seit Jahrzehnten verlässlicher und professioneller Servicepartner der Informationssuchenden in Wissenschaft und Technik. Neue web-basierte Dienstleistungen und Produkte erlauben dem professionellen Informationsbroker ebenso wie dem gelegentlichen Onliner oder Internet Pedestrian den effizienten und kostengünstigen Zugang zu Metadaten, naturwissenschaftlich-technisehen Daten und Fakten. Elektronische Volltexte per Hyperlink oder die komplette Dokument-Vermittlung werden gleichfalls angeboten. Die Weiterentwicklung und flexible Anpassung der Informationssysteme ermöglichen auch die Verknüpfung mit lokalen und regionalen Netzen der Forschungseinrichtungen und Hochschulen. Neue Serviceleistungen und Abrechnungsverfahren bieten besonders preisgünstige Konditionen für Hochschulen durch akademische Programme und Festpreise auf Subskriptionsbasis für ausgewählte Datenbanken. Darüber hinaus ist das FIZ Karlsruhe kompetenter Kooperationspartner bei Entwicklung und Betrieb von Informationssystemen
    Date
    6.11.2000 18:05:22
  12. Meadows, J.: Understanding information (2001) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 3067) [ClassicSimilarity], result of:
            0.089826226 = score(doc=3067,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 3067, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3067)
          0.048624728 = weight(_text_:22 in 3067) [ClassicSimilarity], result of:
            0.048624728 = score(doc=3067,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 3067, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3067)
      0.5 = coord(1/2)
    
    Abstract
    Die moderne Gesellschaft leidet an Reizüberflutung durch Fernsehen, Internet, Zeitschriften aller Art. Jack Meadows, Professor für Bibliotheks- und Informationswissenschaft setzt sich mit Definitionen zu Begriffen wie 'Data', 'Information', 'Communication' oder 'Knowledge' auseinander, die für uns alläglich geworden sind. wie verarbeiten wir den Fluss von wichtigen und unwichtigen Informationen, der täglich auf uns einströmt? Welche 'Daten' sind es für uns Wert, gespeichert zu werden, welche vergessen wir nach kurzer Zeit? Wann wird aus Information Wissen oder gar Weisheit? Das Buch ist eine grundlegende Einführung in das weitläufige Thema Information und Wissensmanagement
    Date
    15. 6.2002 19:22:01
  13. OCLC: Literaturnachweise des Gemeinsamen Bibliotheksverbundes (GBV) für WorldCat (2006) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 6096) [ClassicSimilarity], result of:
            0.089826226 = score(doc=6096,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 6096, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=6096)
          0.048624728 = weight(_text_:22 in 6096) [ClassicSimilarity], result of:
            0.048624728 = score(doc=6096,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 6096, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=6096)
      0.5 = coord(1/2)
    
    Abstract
    Mit den Literaturnachweisen des OCLC PICA Partners - des Gemeinsamen Bibliotheksverbunds (GBV) - wird WorldCat um einen weiteren großen deutschen Datenbestand erweitert. Die entsprechende Rahmenvereinbarung zwischen der OCLC PICA GmbH und dem GBV wurde am anlässlich des OCLC PICA Partner Update Meetings in Oberhaching unterzeichnet. Nach Zustimmung durch die betroffenen Bibliotheken werden ca. 22 Mio. Titelsätze an WorldCat geliefert. Dazu gehören die Bestände der Stiftung Preußischer Kulturbesitz einschließlich Staatsbibliothek zu Berlin und aller Hochschulbibliotheken in den sieben zum GBV gehörenden Bundesländern. OCLC wird diese Daten in Absprache mit den Bibliotheken kontrolliert an Internetsuchmaschinen wie Google und Yahoo weitergeben. Damit wird neben den Titel- und Besitznachweisen der Niedersächsischen Staats- und Universitätsbibliothek Göttingen und der Bayerischen Staatsbibliothek eine weitere große deutsche Titelsammlung via Internet weltweit recherchierbar sein.
  14. Sauermann, L.; Kiesel, M.; Schumacher, K.; Bernardi, A.: Semantic Desktop (2009) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 2416) [ClassicSimilarity], result of:
            0.089826226 = score(doc=2416,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 2416, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2416)
          0.048624728 = weight(_text_:22 in 2416) [ClassicSimilarity], result of:
            0.048624728 = score(doc=2416,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 2416, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2416)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Beitrag wird gezeigt, wie der Arbeitsplatz der Zukunft aussehen könnte und wo das Semantic Web neue Möglichkeiten eröffnet. Dazu werden Ansätze aus dem Bereich Semantic Web, Knowledge Representation, Desktop-Anwendungen und Visualisierung vorgestellt, die es uns ermöglichen, die bestehenden Daten eines Benutzers neu zu interpretieren und zu verwenden. Dabei bringt die Kombination von Semantic Web und Desktop Computern besondere Vorteile - ein Paradigma, das unter dem Titel Semantic Desktop bekannt ist. Die beschriebenen Möglichkeiten der Applikationsintegration sind aber nicht auf den Desktop beschränkt, sondern können genauso in Web-Anwendungen Verwendung finden.
    Date
    3. 1.2012 16:00:22
  15. Zschunke, P.: "Mehr Informationen als die Stasi je hatte" : Soziale Netzwerke (2008) 0.07
    0.0656622 = product of:
      0.1313244 = sum of:
        0.1313244 = sum of:
          0.10185336 = weight(_text_:daten in 1308) [ClassicSimilarity], result of:
            0.10185336 = score(doc=1308,freq=14.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.41739118 = fieldWeight in 1308, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1308)
          0.029471038 = weight(_text_:22 in 1308) [ClassicSimilarity], result of:
            0.029471038 = score(doc=1308,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.16414827 = fieldWeight in 1308, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1308)
      0.5 = coord(1/2)
    
    Content
    "Millionen von Internet-Nutzern drängen in soziale Netze wie StudiVZ und Facebook. Diese Online-Plattformen für die Vernetzung von persönlichen Web-Auftritten entwickeln sich zu einer neuen Art von Massenmedium, wie der Digitale-Medien-Experte Hendrik Speck sagt. Völlig offen sei aber bislang die Frage nach der gesellschaftlichen Verantwortung der "Social Networks". "Die haben mehr Informationen, als die Stasi je hatte", sagt der Informatik-Professor der Fachhochschule Kaiserslautern im Gespräch mit der Nachrichtenagentur AP. Bei den drei Plattformen Facebook, MySpace und Xing hat Speck insgesamt 120 persönliche Attribute gezählt, die auf den persönlichen Seiten der Mitglieder angegeben werden können - angefangen bei Alter und Wohnort über Lieblingsfilme und -musik bis hin zu politischer Neigung und sexueller Ausrichtung. "Wir sehen da einen völlig irrationalen Zugang zu den eigenen Daten", kritisiert der Social-Networks-Forscher. Was aber treibt die Internet-Nutzer zu dieser Art von "digitalem Exhibitionismus"? Speck und seine Studenten haben die Kommunikation in den Netzen mit Hilfe von Software-Agenten und "Crawlern" zu erfassen versucht - das sind Programme, die auf die Seiten dieser Communities vordringen und die Inhalte auswerten. "Wir stellen fest, dass da unheimlich viel offen liegt", sagt Speck. Suche nach Anerkennung und Aufmerksamkeit Als wichtige Antriebskraft hat der Wissenschaftler das Motiv ausgemacht, über den stetig wachsenden Kreis von registrierten "Freunden" Anerkennung und Aufmerksamkeit zu erringen. Bei MySpace oder im SchülerVZ kann sich jeder auf eine Weise präsentieren, wie es in den klassischen Medien kaum möglich ist. Und weil die persönlichen Profile mit wenigen Mausklicks schnell erstellt sind, ist die Eintrittsschwelle sehr viel geringer als bei den Netz-Communities der ersten Stunde, etwa der schon 1985 gegründeten virtuellen Gemeinschaft "The WELL".
    Bislang sind es meist Jugendliche und junge Erwachsene bis etwa 35, die die Mehrheit der Community-Mitglieder ausmachen. Es gebe aber Bestrebungen, die Altersgruppe nach oben zu erweitern, sagt Speck. Die soziale Interaktion in den Social Networks kreist nach seinen Erkenntnissen immer wieder um die gleichen Dinge: 1) Unterhaltung - von Musik bis zu Stars und Sternchen 2) die gesellschaftlich geteilte Schadenfreude nach dem Motto "Pleiten, Pech und Pannen" 3) Flirten und sexuelle Beziehungen. Dabei kommen Männer direkter auf den Punkt als Frauen, die dies hinter anderen Interessen verstecken. Auf der anderen Seite stehen die Betreiber der Netze. Diese erzielen mit der Bereitstellung der Plattform zwar bislang meist noch keine Gewinne, haben aber wegen der gigantischen Zuwachsraten das Interesse von Internet- und Medienunternehmen geweckt, die wie Microsoft oder die Verlagsgruppe Holtzbrinck in Social Networks investieren. Der einzelne Nutzer ist 20 bis 22 Dollar wert Da die Technik der Webseiten nicht besonders aufwendig sei, liege der eigentliche Reichtum in den Nutzern und ihren Daten, erklärt Speck. Bei den großen Plattformen in den USA lasse sich aus den getätigten Investitionen für die Social Networks der Wert eines einzelnen Nutzers auf einen Betrag von 20 bis 22 Dollar (14 bis 15 Euro) schätzen. Der Gegenwert, den die Nutzer liefern sollen, wird vor allem in der Werbung gesehen. Neben der klassischen Bannerwerbung auf den eigenen Seiten versuchen die Betreiber der sozialen Netzwerke nach Darstellung Specks, in andere Dienste wie SMS-Werbung oder E-Mail vorzudringen. Um die Werbe-Zielgruppen immer feiner zu erfassen, werde auch untersucht, wer mit welchem Profil mit wem kommuniziere. "Je tiefer die Vernetzung, desto dichter werden die Informationen", erklärt Speck.
    Der Wissenschaftler kritisiert, dass die Daten so behandelt würden, als gehörten sie nicht dem Nutzer, sondern den sozialen Netzwerken. Selbst wenn es die Möglichkeit gebe, einen Account zu löschen, blieben die Daten vielfach weiter bestehen. Und über die beliebten Mini-Anwendungen zur Integration in die eigene Profilseite erhielten auch die Entwickler dieser Applikationen einen Zugang zu den persönlichen Daten. "Da weiß man dann gar nicht, wer dahinter steckt." Weder "open" noch "social" Google hat Anfang November vergangenen Jahres unter der Bezeichung OpenSocial eine Initiative gestartet, um solche Anwendungen und Schnittstellen nach einheitlichen Standards programmieren zu können. Das Projekt sei aber weder "open" noch "social", weil nicht vorgesehen sei, den Nutzern eine transparente Kontrolle über ihre eigenen Daten zu geben, bemängelt der FH-Professor. Das Projekt bemühe sich um die "Datenportabilität" zwischen den kommerziellen Projektpartnern und unterstütze die Interaktionen zwischen einzelnen Communities, versage jedoch komplett bei der Interessenswahrnehmung der Nutzer in Hinblick auf informationelle Selbstbestimmung und einem verbesserten Schutz der Privatssphäre. Um die zahlreichen offenen Fragen nach der Verantwortung für die Millionen von persönlichen Daten zu klären, schlägt Speck einen Verhaltenskodex für soziale Netzwerke vor. Für die gemeinsame Entwicklung von ethischen Grundsätzen will er neben Datenschützern auch die Betreiber der Communities gewinnen und hofft, schon in wenigen Monaten eine entsprechende Initiative vorstellen zu können. http://www.hendrikspeck.com"
  16. Scheerer, H.: Gülich online : Die Retrokonversion des Zettelkatalogs der Bundestagsbibliothek (2007) 0.07
    0.06522205 = product of:
      0.1304441 = sum of:
        0.1304441 = sum of:
          0.10265854 = weight(_text_:daten in 513) [ClassicSimilarity], result of:
            0.10265854 = score(doc=513,freq=8.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 513, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=513)
          0.027785558 = weight(_text_:22 in 513) [ClassicSimilarity], result of:
            0.027785558 = score(doc=513,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 513, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=513)
      0.5 = coord(1/2)
    
    Abstract
    Konzeptionelle Grundlagen Das Jahr 2006 stand für die Bundestagsbibliothek im Zeichen der Retrokonversion. Die Daten von 839.000 Karten des Verfasser- und Titelkatalogs des Gülichschen Katalogsystems, die den Bestand bis 1986 nachweisen, wurden maschinenlesbar gemacht und in den elektronischen Katalog der Bibliothek eingespielt. Damit ist nunmehr der Gesamtbestand der Bibliothek sowohl im Intranet des Bundestages als auch im Internet recherchierbar. Mit der Retrokonversion verfolgte die Bundestagsbibliothek zwei zentrale Ziele. Erstens sollte eine integrierte Recherche von Alt- und Neudaten ermöglicht werden, zweitens sollte der Bestand bis 1986 mit demselben Komfort direkt entleih-bar, vormerkbar und verlängerbar sein wie der Bestand ab 1987. Aufgrund der finanziellen Rahmenbedingungen des Projekts einerseits und der Ausgangssituation im Kartenkatalog andererseits mussten bezüglich der Suchmöglichkeiten Unterschiede zwischen Alt- und Neudaten festgelegt werden. Analog zu der beim Aufbau des HEBIS-Retrokataloges verfolgten Philosophie wurde seitens der Bibliothek entschieden, dass man die zu konvertierenden Daten über die wichtigsten Sucheinstiege wie Verfasser, Hauptsachtitel und Erscheinungsjahr finden können sollte. Ein Sucheinstieg über Schlagwörter wurde hingegen des seinerzeit für die Sacherschließung verwendeten, nicht-natürlichsprachlichen Vokabulars und der zahlreichen Abkürzungen auf den Katalogkarten wegen als nicht sinnvoll erachtet. Im Unterschied zum HEBIS-Retroprojekt entschied sich die Bundestagsbibliothek jedoch, Alt- und Neudaten in einer gemeinsamen Datenbank zusammenzuführen. Der Vorteil der integrierten Recherche überwog die Bedenken, dass die Daten auf der Grundlage zweier unterschiedlicher, formaler Regelwerke (Gülich/RAK-PB) erstellt worden waren.
    Neben der integrierten Recherche war die Realisierung einer direkten Bestell- und Ausleihmöglichkeit des Altbestands konzeptioneller Kernpunkt des Projekts. Dabei stellte sich jedoch ein grundlegendes Problem: Mehr als die Hälfte, nämlich knapp 425.000 der zu konvertierenden Katalogkarten waren Aufsatzkatalogisate. Die für eine Ausleihe notwendigen Verknüpfungen zu den ausleihfähigen, übergeordneten Gesamtheiten konnten nicht automatisch erzeugt werden, hier mussten Umgehungslösungen gefunden werden. Die Vorgehensweise bei der Retrokonversion ergab sich aus den konzeptionellen Grundüberlegungen einerseits und der Nichtzugehörigkeit der Bundestagsbibliothek zu einem überregionalen Verbund andererseits. Von vornherein schied daher die Variante aus, bereits vorhandene Datensätze eines eigenen Verbundes als Ausgangspunkt für die Retrokonversion zu nehmen und gleichzeitig den Aufsatzbestand neu zu katalogisieren - ein Weg, wie ihn die Deutsche Zentralbibliothek für Wirtschaftswissenschaften in Kiel beschritten hat, die gleichfalls einen Gülich-Katalog zu konvertieren hattet. Stattdessen verlief das Retrokonversionsprojekt der Bundestagsbibliothek zweigeteilt. Im Zuge einer europaweiten Ausschreibung mit vorgeschaltetem Teilnehmerwettbewerb wurde die Firma Satz-Rechen-Zentrum GmbH, die schon zahlreiche Katalogkonversionen erfolgreich durchgeführt hat, beauftragt, die Daten der Katalogkarten zu konvertieren und für eine Einspielung in die Bibliotheksdatenbank zu Verfügung zu stellen. Die Einspielung selbst wurde von der Firma ASTEC GmbH vorgenommen, welche die in der Bundestagsbibliothek eingesetzte Katalogsoftware aDIS/BMS entwickelt hat.
    Date
    22. 8.2007 11:43:43
  17. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.07
    0.06522205 = product of:
      0.1304441 = sum of:
        0.1304441 = sum of:
          0.10265854 = weight(_text_:daten in 2403) [ClassicSimilarity], result of:
            0.10265854 = score(doc=2403,freq=8.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 2403, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
          0.027785558 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
            0.027785558 = score(doc=2403,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
      0.5 = coord(1/2)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
  18. Geeb, F.; Spree, U.: Wörterbücher und Enzyklopädien (2004) 0.06
    0.05933612 = product of:
      0.11867224 = sum of:
        0.11867224 = sum of:
          0.076993905 = weight(_text_:daten in 2944) [ClassicSimilarity], result of:
            0.076993905 = score(doc=2944,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.31551808 = fieldWeight in 2944, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=2944)
          0.041678336 = weight(_text_:22 in 2944) [ClassicSimilarity], result of:
            0.041678336 = score(doc=2944,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 2944, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2944)
      0.5 = coord(1/2)
    
    Abstract
    Als allgemeine Informationsmittel erlauben Wörterbücher und Enzyklopädien einen gezielten Zugriff auf Fakteninformationen. Angesichts des extrem dynamischen Marktes und des hohen Grades der inhaltlichen Spezialisierung, besonders wenn man die zahlreichen elektronischen Produkte mit einbezieht, ist es nicht möglich einen umfassenden systematischen Überblick über den gängigen Bestand von Wörterbüchern und Enzyklopädien zu liefern. Dieser Beitrag wird sich auf einige wenige exemplarische Beispiele beschränken, wesentliche Strukturmerkmale aufzeigen und daneben geeignete Kriterien zur Auswahl und Evaluierung der Qualität von Nachschlagewerken anbieten. Seit einigen Jahren beschäftigen sich Informationswissenschaftler und -praktiker verstärkt mit Wörterbüchern und Enzyklopädien in Hinblick auf die hier seit Jahrhunderten praktizierten Formen der strukturierten Informations- und Wissensaufbereitung. Ein Trend, der durch zwei Entwicklungen entscheidend befördert wurde, den Einsatz von Datenbanken zur Verwaltung lexikographischer Informationen, unabhängig in welchem Medium sie erscheinen, und die Durchsetzung von XML als Auszeichnungssprache für lexikographische Daten.
    Date
    5. 4.2013 10:21:22
  19. Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.06
    0.05933612 = product of:
      0.11867224 = sum of:
        0.11867224 = sum of:
          0.076993905 = weight(_text_:daten in 2406) [ClassicSimilarity], result of:
            0.076993905 = score(doc=2406,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.31551808 = fieldWeight in 2406, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=2406)
          0.041678336 = weight(_text_:22 in 2406) [ClassicSimilarity], result of:
            0.041678336 = score(doc=2406,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 2406, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2406)
      0.5 = coord(1/2)
    
    Abstract
    Das Kompetenzzentrum Interoperable Metadaten (KIM) ist eine Informations- und Kommunikationsplattform für Metadatenanwender und -entwickler zur Verbesserung der Interoperabilität von Metadaten im deutschsprachigen Raum. KIM unterstützt und fördert die Erarbeitung von Metadatenstandards, die interoperable Gestaltung von Formaten und damit die optimale Nutzung von Metadaten in digitalen Informationsumgebungen mittels Lehrmaterialien, Schulungen und Beratungen. Das Kompetenzzentrum entsteht im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts KIM unter der Federführung der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) in Zusammenarbeit mit der Deutschen Nationalbibliothek (DNB). Projektpartner sind in der Schweiz die Hochschule für Technik und Wirtschaft HTW Chur, die Eidgenössische Technische Hochschule (ETH) Zürich und in Österreich die Universität Wien. Aufgabe des Kompetenzzentrums ist es, die Interoperabilität von Metadaten zu verbessern. Interoperabilität ist die Fähigkeit zur Zusammenarbeit von heterogenen Systemen. Datenbestände unabhängiger Systeme können ausgetauscht oder zusammengeführt werden, um z. B. eine systemübergreifende Suche oder das Browsen zu ermöglichen. Daten werden zum Teil in sehr unterschiedlichen Datenbanksystemen gespeichert. Interoperabilität entsteht dann, wenn die Systeme umfangreiche Schnittstellen implementieren, die ein weitgehend verlustfreies Mapping der internen Datenrepräsentation ermöglichen.
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.22-24
  20. Standard-Thesaurus Wirtschaft online (2009) 0.06
    0.05933612 = product of:
      0.11867224 = sum of:
        0.11867224 = sum of:
          0.076993905 = weight(_text_:daten in 2895) [ClassicSimilarity], result of:
            0.076993905 = score(doc=2895,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.31551808 = fieldWeight in 2895, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=2895)
          0.041678336 = weight(_text_:22 in 2895) [ClassicSimilarity], result of:
            0.041678336 = score(doc=2895,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 2895, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2895)
      0.5 = coord(1/2)
    
    Content
    "Die ZBW Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft stellt ab sofort den Standard-Thesaurus Wirtschaft (STW) in der aktuellen Version 8.04 in Deutsch und Englisch online (http://zbw.eu/stw) bereit. Es ist möglich, nach Deskriptoren und Zugangsvokabular zu suchen oder im Systematikbaum zu blättern. Per direktem Link gelangt man von dort in die ZBW-Datenbank ECONIS (www.econis.eu). Der Thesaurus ist zur Nutzung im Semantic Web aufbereitet: Jeder Deskriptor ist mit einem persistenten Identifier versehen, für dessen langfristige Stabilität die ZBW garantiert. Die Thesaurus-Beziehungen sind als Daten (RDFa) in die Webseiten eingebettet. Über einen STW-Webservice (http://zbw.eu/beta/ stw-ws) können zum Beispiel Synonyme für eine Erweiterung von Suchen automatisiert abgefragt werden."
    Date
    21.11.2011 11:41:22

Languages

Types

  • a 1439
  • m 207
  • el 74
  • s 61
  • x 39
  • b 26
  • i 10
  • r 5
  • n 3
  • More… Less…

Themes

Subjects

Classifications