Search (4553 results, page 1 of 228)

  1. Höfer, W.: Detektive im Web (1999) 0.14
    0.13593598 = product of:
      0.27187195 = sum of:
        0.27187195 = sum of:
          0.15398781 = weight(_text_:daten in 4007) [ClassicSimilarity], result of:
            0.15398781 = score(doc=4007,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.63103616 = fieldWeight in 4007, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.09375 = fieldNorm(doc=4007)
          0.11788415 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
            0.11788415 = score(doc=4007,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.6565931 = fieldWeight in 4007, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=4007)
      0.5 = coord(1/2)
    
    Abstract
    Ohne Altavista, Excite & Co. wären Internet-Surfer aufgeschmissen. Wie die Daten-Spürhunde arbeiten, wie Sie ihre Website anmelden und welche Tools helfen, steht in diesem Suchmaschinen-Special
    Date
    22. 8.1999 20:22:06
  2. Open Knowledge Foundation: Prinzipien zu offenen bibliographischen Daten (2011) 0.14
    0.13569033 = product of:
      0.27138066 = sum of:
        0.27138066 = sum of:
          0.22226228 = weight(_text_:daten in 4399) [ClassicSimilarity], result of:
            0.22226228 = score(doc=4399,freq=24.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.9108223 = fieldWeight in 4399, product of:
                4.8989797 = tf(freq=24.0), with freq of:
                  24.0 = termFreq=24.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4399)
          0.049118392 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
            0.049118392 = score(doc=4399,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.27358043 = fieldWeight in 4399, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4399)
      0.5 = coord(1/2)
    
    Abstract
    Produzenten bibliographischer Daten wie Bibliotheken, Verlage, Universitäten, Wissenschaftler oder soziale, webbasierte Literaturverwaltungsplattformen spielen eine wichtige Rolle bei der Entwicklung menschlichen Wissens. Damit ihre Arbeit der Gesellschaft in vollem Umfang zugutekommt, ist es zwingend erforderlich, bibliographische Daten zu öffnen, das heißt für alle zur beliebigen Nutzung frei verfügbar zu machen.
    Content
    "Bibliographische Daten Um den Geltungsbereich der Prinzipien festzulegen, wird in diesem ersten Teil der zugrundeliegende Begriff bibliographischer Daten erläutert. Kerndaten Bibliographische Daten bestehen aus bibliographischen Beschreibungen. Eine bibliographische Beschreibung beschreibt eine bibliographische Ressource (Artikel, Monographie etc. - ob gedruckt oder elektronisch) zum Zwecke 1. der Identifikation der beschriebenen Ressource, d.h. des Zeigens auf eine bestimmte Ressource in der Gesamtheit aller bibliographischer Ressourcen und 2. der Lokalisierung der beschriebenen Ressource, d.h. eines Hinweises, wo die beschriebene Ressource aufzufinden ist. Traditionellerweise erfüllte eine Beschreibung beide Zwecke gleichzeitig, indem sie Information lieferte über: Autor(en) und Herausgeber, Titel, Verlag, Veröffentlichungsdatum und -ort, Identifizierung des übergeordneten Werks (z.B. einer Zeitschrift), Seitenangaben. Im Web findet Identifikation statt mittels Uniform Resource Identifiers (URIs) wie z.B. URNs oder DOIs. Lokalisierung wird ermöglicht durch HTTP-URIs, die auch als Uniform Resource Locators (URLs) bezeichnet werden. Alle URIs für bibliographische Ressourcen fallen folglich unter den engen Begriff bibliographischer Daten. Sekundäre Daten Eine bibliographische Beschreibung kann andere Informationen enthalten, die unter den Begriff bibliographischer Daten fallen, beispielsweise Nicht-Web-Identifikatoren (ISBN, LCCN, OCLC etc.), Angaben zum Urheberrechtsstatus, administrative Daten und mehr; diese Daten können von Bibliotheken, Verlagen, Wissenschaftlern, Online-Communities für Buchliebhaber, sozialen Literaturverwaltungssystemen und Anderen produziert sein. Darüber hinaus produzieren Bibliotheken und verwandte Institutionen kontrollierte Vokabulare zum Zwecke der bibliographischen Beschreibung wie z. B. Personen- und Schlagwortnormdateien, Klassifikationen etc., die ebenfalls unter den Begriff bibliographischer Daten fallen."
    Date
    22. 3.2011 18:22:29
  3. Mosdorf, S.: Krypto-Gesetz wäre ein Blankoscheck zur staatlichen Überwachung : Ein gemeinsamer Bund-Länder-Regulierungsrat kann Daten- und Rechtssicherheit im Netzverkehr schaffen (1997) 0.12
    0.11867224 = product of:
      0.23734447 = sum of:
        0.23734447 = sum of:
          0.15398781 = weight(_text_:daten in 6291) [ClassicSimilarity], result of:
            0.15398781 = score(doc=6291,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.63103616 = fieldWeight in 6291, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.09375 = fieldNorm(doc=6291)
          0.08335667 = weight(_text_:22 in 6291) [ClassicSimilarity], result of:
            0.08335667 = score(doc=6291,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.46428138 = fieldWeight in 6291, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=6291)
      0.5 = coord(1/2)
    
    Source
    Frankfurter Rundschau. Nr.107 vom 10.5.1997, S.22
  4. Hintze, W.: Originalgetreue Dokumentdarstellung auf CD-ROM : Text-codierte Daten (1993) 0.12
    0.11867224 = product of:
      0.23734447 = sum of:
        0.23734447 = sum of:
          0.15398781 = weight(_text_:daten in 357) [ClassicSimilarity], result of:
            0.15398781 = score(doc=357,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.63103616 = fieldWeight in 357, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.09375 = fieldNorm(doc=357)
          0.08335667 = weight(_text_:22 in 357) [ClassicSimilarity], result of:
            0.08335667 = score(doc=357,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.46428138 = fieldWeight in 357, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=357)
      0.5 = coord(1/2)
    
    Source
    Technik und Information: Markt, Medien und Methoden. Deutscher Dokumentartag 1992, Technische Universität Berlin, 22.-25.9.1992. Hrsg.: W. Neubauer u. K.-H. Meier
  5. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.10
    0.10226967 = sum of:
      0.0814305 = product of:
        0.2442915 = sum of:
          0.2442915 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
            0.2442915 = score(doc=562,freq=2.0), product of:
              0.43466842 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.051270094 = queryNorm
              0.56201804 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.33333334 = coord(1/3)
      0.020839168 = product of:
        0.041678336 = sum of:
          0.041678336 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
            0.041678336 = score(doc=562,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.5 = coord(1/2)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  6. Bock, H.-H.: Datenanalyse zur Strukturierung und Ordnung von Information (1989) 0.10
    0.102104165 = product of:
      0.20420833 = sum of:
        0.20420833 = sum of:
          0.1555836 = weight(_text_:daten in 141) [ClassicSimilarity], result of:
            0.1555836 = score(doc=141,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.6375756 = fieldWeight in 141, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=141)
          0.048624728 = weight(_text_:22 in 141) [ClassicSimilarity], result of:
            0.048624728 = score(doc=141,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 141, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=141)
      0.5 = coord(1/2)
    
    Abstract
    Aufgabe der Datenanalyse ist es, Daten zu ordnen, übersichtlich darzustellen, verborgene und natürlich Strukturen zu entdecken, die diesbezüglich wesentlichen Eigenschaften herauszukristallisieren und zweckmäßige Modelle zur Beschreibung von Daten aufzustellen. Es wird ein Einblick in die Methoden und Prinzipien der Datenanalyse vermittelt. Anhand typischer Beispiele wird gezeigt, welche Daten analysiert, welche Strukturen betrachtet, welche Darstellungs- bzw. Ordnungsmethoden verwendet, welche Zielsetzungen verfolgt und welche Bewertungskriterien dabei angewendet werden können. Diskutiert wird auch die angemessene Verwendung der unterschiedlichen Methoden, wobei auf die gefahr und Art von Fehlinterpretationen hingewiesen wird
    Pages
    S.1-22
  7. Hartmann, S.; Haffner, A.: Linked-RDA-Data in der Praxis (2010) 0.10
    0.100376114 = product of:
      0.20075223 = sum of:
        0.20075223 = sum of:
          0.1451811 = weight(_text_:daten in 1679) [ClassicSimilarity], result of:
            0.1451811 = score(doc=1679,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.5949466 = fieldWeight in 1679, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=1679)
          0.055571117 = weight(_text_:22 in 1679) [ClassicSimilarity], result of:
            0.055571117 = score(doc=1679,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 1679, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1679)
      0.5 = coord(1/2)
    
    Abstract
    Durch den neuen Erschließungsstandard "Resource Description and Access" (RDA) lassen sich bibliografische Daten sowie Normdaten Semantic-Web-konform repräsentieren. Der Vortrag soll aufzeigen, welche Auswirkungen RDA auf die Katalogisierung in Bibliotheken und den Zugang zu den erschlossenen Ressourcen im Semantic Web hat. Anhand erster Erfahrungen aus praktischen Umsetzungen wird erläutert, wie bibliografische Daten durch RDA und Linked-Data-Technologien besser zugänglich gemacht und vor allem nachgenutzt werden können.
    Date
    13. 2.2011 20:22:23
  8. Eckert, K.: SKOS: eine Sprache für die Übertragung von Thesauri ins Semantic Web (2011) 0.10
    0.100376114 = product of:
      0.20075223 = sum of:
        0.20075223 = sum of:
          0.1451811 = weight(_text_:daten in 4331) [ClassicSimilarity], result of:
            0.1451811 = score(doc=4331,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.5949466 = fieldWeight in 4331, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=4331)
          0.055571117 = weight(_text_:22 in 4331) [ClassicSimilarity], result of:
            0.055571117 = score(doc=4331,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 4331, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4331)
      0.5 = coord(1/2)
    
    Abstract
    Das Semantic Web - bzw. Linked Data - hat das Potenzial, die Verfügbarkeit von Daten und Wissen, sowie den Zugriff darauf zu revolutionieren. Einen großen Beitrag dazu können Wissensorganisationssysteme wie Thesauri leisten, die die Daten inhaltlich erschließen und strukturieren. Leider sind immer noch viele dieser Systeme lediglich in Buchform oder in speziellen Anwendungen verfügbar. Wie also lassen sie sich für das Semantic Web nutzen? Das Simple Knowledge Organization System (SKOS) bietet eine Möglichkeit, die Wissensorganisationssysteme in eine Form zu "übersetzen", die im Web zitiert und mit anderen Resourcen verknüpft werden kann.
    Date
    15. 3.2011 19:21:22
  9. Karisch, K.-H.: Rasen auf dem Daten-Highway soll Schule machen : Bei Bonner Politikern und in deutschen Klassenzimmern ist das Internet-Fieber ausgebrochen (1996) 0.10
    0.09889354 = product of:
      0.19778708 = sum of:
        0.19778708 = sum of:
          0.12832318 = weight(_text_:daten in 4654) [ClassicSimilarity], result of:
            0.12832318 = score(doc=4654,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.52586347 = fieldWeight in 4654, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.078125 = fieldNorm(doc=4654)
          0.0694639 = weight(_text_:22 in 4654) [ClassicSimilarity], result of:
            0.0694639 = score(doc=4654,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.38690117 = fieldWeight in 4654, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=4654)
      0.5 = coord(1/2)
    
    Date
    17. 7.1996 9:33:22
  10. Paulus, W.; Weishaupt, K.: Bibliotheksdaten werden mehr wert : LibLink wertet bibliothekarische Dienstleistung auf (1996) 0.10
    0.09889354 = product of:
      0.19778708 = sum of:
        0.19778708 = sum of:
          0.12832318 = weight(_text_:daten in 5228) [ClassicSimilarity], result of:
            0.12832318 = score(doc=5228,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.52586347 = fieldWeight in 5228, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.078125 = fieldNorm(doc=5228)
          0.0694639 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
            0.0694639 = score(doc=5228,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.38690117 = fieldWeight in 5228, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=5228)
      0.5 = coord(1/2)
    
    Abstract
    Die maschinenlesbaren Katalogdaten der Bibliotheken wurden bisher hauptsächlich intern genutzt. Die im Institut Arbeit und Technik entwickelte Software LibLink ermöglich es, diese Daten auch im wissenschaftlichen Kontext zu verwenden
    Date
    29. 9.1996 18:58:22
  11. Breyer, K.: Kommerz statt Information (2002) 0.10
    0.09889354 = product of:
      0.19778708 = sum of:
        0.19778708 = sum of:
          0.12832318 = weight(_text_:daten in 568) [ClassicSimilarity], result of:
            0.12832318 = score(doc=568,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.52586347 = fieldWeight in 568, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.078125 = fieldNorm(doc=568)
          0.0694639 = weight(_text_:22 in 568) [ClassicSimilarity], result of:
            0.0694639 = score(doc=568,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.38690117 = fieldWeight in 568, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=568)
      0.5 = coord(1/2)
    
    Abstract
    Äußerst schwache Leistungen liefern die meisten Suchmaschinen, wenn aktuelle Infos gefragt sind. Stattdessen wird zu viel versteckte Werbung gezeigt. PCpro erklärt, wie User aktuelle Daten finden
    Date
    9. 5.2002 21:21:22
  12. Leitfaden zum Forschungsdaten-Management : Handreichungen aus dem WissGrid-Projekt (2013) 0.10
    0.097833075 = product of:
      0.19566615 = sum of:
        0.19566615 = sum of:
          0.15398781 = weight(_text_:daten in 1029) [ClassicSimilarity], result of:
            0.15398781 = score(doc=1029,freq=8.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.63103616 = fieldWeight in 1029, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=1029)
          0.041678336 = weight(_text_:22 in 1029) [ClassicSimilarity], result of:
            0.041678336 = score(doc=1029,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 1029, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1029)
      0.5 = coord(1/2)
    
    Abstract
    Digitale Forschungsdaten sind eine unverzichtbare Grundlage moderner Wissenschaft. Mit ihnen sind aber eine Reihe von notwendigen Datenmanagement-Aufgaben verbunden, damit sie in der aktiven Forschung bestmöglich eingesetzt werden können und die gute wissenschaftliche Praxis eingehalten wird. Wie lange sollen die Daten aufbewahrt werden? Welche Kontextinformtionen müssen erfasst werden, um die Daten zu einem späteren Zeitpunkt noch sinnvol benutzen zu können? Wie viel kostet die Aufbewahrung? Dieses Buch kann diese Fragen nur aufwerfen, nicht beantworten. Denn ohne auf Details der jeweiligen Disziplin, Forschungsdaten und Projekte einzugehen, lassen sich diese Fragen nicht allegemeinverbindlich klären. Was dieses Buch jedoch mit einem Leitfaden und einer Checkliste bereitstellt, ist ein einfaches Instrument für fachwissenschatliche oder Infrastruktur-Einrichtungen, um die wichtigsten Aufgaben und Fragen im Forschungsdaten-Management strukturiert beantworten und effizient planen zu können.
    Date
    19.12.2015 11:57:22
    RSWK
    Deutschland / Forschungsprozess / Digitale Daten / Datenmanagement / Langzeitarchivierung
    Subject
    Deutschland / Forschungsprozess / Digitale Daten / Datenmanagement / Langzeitarchivierung
  13. Luca, E.W. de; Dahlberg, I.: ¬Die Multilingual Lexical Linked Data Cloud : eine mögliche Zugangsoptimierung? (2014) 0.10
    0.097833075 = product of:
      0.19566615 = sum of:
        0.19566615 = sum of:
          0.15398781 = weight(_text_:daten in 1736) [ClassicSimilarity], result of:
            0.15398781 = score(doc=1736,freq=8.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.63103616 = fieldWeight in 1736, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
          0.041678336 = weight(_text_:22 in 1736) [ClassicSimilarity], result of:
            0.041678336 = score(doc=1736,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
      0.5 = coord(1/2)
    
    Abstract
    Sehr viele Informationen sind bereits im Web verfügbar oder können aus isolierten strukturierten Datenspeichern wie Informationssystemen und sozialen Netzwerken gewonnen werden. Datenintegration durch Nachbearbeitung oder durch Suchmechanismen (z. B. D2R) ist deshalb wichtig, um Informationen allgemein verwendbar zu machen. Semantische Technologien ermöglichen die Verwendung definierter Verbindungen (typisierter Links), durch die ihre Beziehungen zueinander festgehalten werden, was Vorteile für jede Anwendung bietet, die das in Daten enthaltene Wissen wieder verwenden kann. Um ­eine semantische Daten-Landkarte herzustellen, benötigen wir Wissen über die einzelnen Daten und ihre Beziehung zu anderen Daten. Dieser Beitrag stellt unsere Arbeit zur Benutzung von Lexical Linked Data (LLD) durch ein Meta-Modell vor, das alle Ressourcen enthält und zudem die Möglichkeit bietet sie unter unterschiedlichen Gesichtspunkten aufzufinden. Wir verbinden damit bestehende Arbeiten über Wissensgebiete (basierend auf der Information Coding Classification) mit der Multilingual Lexical Linked Data Cloud (basierend auf der RDF/OWL-Repräsentation von EuroWordNet und den ähnlichen integrierten lexikalischen Ressourcen MultiWordNet, MEMODATA und die Hamburg Metapher DB).
    Date
    22. 9.2014 19:00:13
  14. Semar, W.: Kryptografie (2004) 0.10
    0.095947556 = product of:
      0.19189511 = sum of:
        0.19189511 = sum of:
          0.15716316 = weight(_text_:daten in 2956) [ClassicSimilarity], result of:
            0.15716316 = score(doc=2956,freq=12.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.6440486 = fieldWeight in 2956, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2956)
          0.03473195 = weight(_text_:22 in 2956) [ClassicSimilarity], result of:
            0.03473195 = score(doc=2956,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 2956, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2956)
      0.5 = coord(1/2)
    
    Abstract
    Kryptografie ist die Lehre von der Verschlüsselung von Daten und den Techniken, die zur Realisierung derselben verwendet werden. Sie hat längst die Grauzone der Spionage und des Militärbereichs überschritten und ist als Schlüsseltechnik für die Absicherung weltweiter Computernetze von zentraler Bedeutung. Die Art und vor allem die Menge der Daten, die schützenswert sind, haben sich mit der Verbreitung elektronischer Datenverarbeitung deutlich gewandelt. Es werden nicht nur im Berufs-, sondern auch zunehmend im Privatleben Informationen vor unberechtigtem Zugriff und vor Manipulation geschützt. Verschlüsselungsverfahren kommen im Rahmen der Datenübertragung, besonders in offenen Netzen wie dem Internet, eine besondere Bedeutung zu. Die Kryptografie soll die Vertraulichkeit von Daten ermöglichen. Schließlich hat jede Person und jede Organisation ein legitimes Interesse an dem Schutz ihrer Daten vor Ausspähung. Neben dem offensichtlichen Zweck der Geheimhaltung muss die Kryptografie weitere, grundlegende Kriterien erfüllen wie die Integrität, die Authentizität und die Verbindlichkeit beim Austausch von empfindlichen Daten. Diese vier Kriterien müssen erfüllt sein, wenn eine optimale Datensicherheit gewährleistet sein soll. Für jedes Kriterium gibt es eigene Lösungsmöglichkeiten, die Kunst liegt darin, mit einem Verschlüsselungssystem möglichst alle vier Kriterien gleichzeitig zu erfüllen. Ein weiteres Ziel kann in manchen Situationen Anonymität sein, z. B. beim elektronischen Geld. Darunter wird die Vertraulichkeit nicht des Nachrichteninhalts, sondern sogar des vollständigen Kommunikationsvorgangs als solchem verstanden. Genau genommen muss zwischen der Kryptografie, die sich mit der Verschlüsselung von Daten beschäftigt, und der Kryptoanalyse, die sich mit derer Entschlüsselung beschäftigt, unterschieden werden. Der Oberbegriff für beide Disziplinen ist Kryptologie.
    Date
    5. 4.2013 10:22:37
  15. Graumann, S.; Bredemeier, W.; Köhne, B.: Aktualisierte Grundlagenstudie zur Informationswirtschaft : Im Auftrag des Bundeswirtschaftsministeriums (2002) 0.09
    0.08751786 = product of:
      0.17503572 = sum of:
        0.17503572 = sum of:
          0.13335738 = weight(_text_:daten in 616) [ClassicSimilarity], result of:
            0.13335738 = score(doc=616,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.5464934 = fieldWeight in 616, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=616)
          0.041678336 = weight(_text_:22 in 616) [ClassicSimilarity], result of:
            0.041678336 = score(doc=616,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 616, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=616)
      0.5 = coord(1/2)
    
    Abstract
    Mit insgesamt sechs halbjährlichen Faktenberichten, ergänzt durch jährliche Trendberichte, analysieren NFO Infratest Bereich Information und Dokumentation, München und das Institute for Information Economics, Hattingen, im Auftrag des Bundesministeriums für Wirtschaft und Technologie bis zum Jahr 2003 den Entwicklungsstand der Informationswirtschaft und seiner Teilmärkte in Deutschland im weltweiten Vergleich. Der vierte Faktenbericht ist eine internationale Benchmarking-Studie, die die deutsche Informationswirtschaft im Vergleich zu Europa, USA und Japan beschreibt. Es werden verlässliche und aktuelle Daten zurMarktentwicklung ermittelt und über mehrere Jahre fortgeschrieben. 26 Prozent der Daten enthalten Prognosen bis 2010, 41 Prozent werden zusätzlich in Zeitreihen (1999 bis 2005) dargestellt die wichtigsten Daten werden in Form von 436 Charts visualisiert. Der Trendbericht ergänzt diese Darstellung durch eine Befragung deutscher Experten, die ein differenziertes und umfassendes Meinungs- und Stimmungsbild der Informationswirtschaft zu den für sie zentralen Fragen ergeben und auf bevorstehende Entwicklungen in der Informationswirtschaft aufmerksam machen. DerArtikel fasst die wesentlichen Ergebnisse des 4. Faktenberichts und 2. Trendberichts zusammen. Alle Berichte sowie Charts können unentgeltlich unter http://www.infrasearch.de/bmwi heruntergeladen werden.
    Date
    28.11.2004 13:03:22
  16. Niemann, C.: Tag-Science : Ein Analysemodell zur Nutzbarkeit von Tagging-Daten (2011) 0.09
    0.08751786 = product of:
      0.17503572 = sum of:
        0.17503572 = sum of:
          0.13335738 = weight(_text_:daten in 164) [ClassicSimilarity], result of:
            0.13335738 = score(doc=164,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.5464934 = fieldWeight in 164, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=164)
          0.041678336 = weight(_text_:22 in 164) [ClassicSimilarity], result of:
            0.041678336 = score(doc=164,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 164, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=164)
      0.5 = coord(1/2)
    
    Abstract
    Social-Tagging-Systeme, die sich für das Wissensmanagement rapide wachsender Informationsmengen zunehmend durchsetzen, sind ein ambivalentes Phänomen. Sie bieten Kundennähe und entfalten ein beachtliches kreatives Potenzial. Sie erzeugen aber ebenso große Mengen völlig unkontrollierter Meta-Informationen. Aus Sicht gepflegter Vokabularien, wie sie sich etwa in Thesauri finden, handelt es sich bei völlig frei vergebenen Nutzerschlagwörtern (den "Tags") deshalb um "chaotische" Sacherschließung. Andererseits ist auch die These einer "Schwarmintelligenz", die in diesem Chaos wertvolles Wissen als Gemeinschaftsprodukt erzeugt, nicht von der Hand zu weisen. Die Frage ist also: Wie lassen sich aus Tagging-Daten Meta-Informationen generieren, die nach Qualität und Ordnung wissenschaftlichen Standards entsprechen - nicht zuletzt zur Optimierung eines kontrollierten Vokabulars? Der Beitrag stellt ein Analysemodell zur Nutzbarkeit von Tagging-Daten vor.
    Source
    ¬Die Kraft der digitalen Unordnung: 32. Arbeits- und Fortbildungstagung der ASpB e. V., Sektion 5 im Deutschen Bibliotheksverband, 22.-25. September 2009 in der Universität Karlsruhe. Hrsg: Jadwiga Warmbrunn u.a
  17. Fachsystematik Bremen nebst Schlüssel 1970 ff. (1970 ff) 0.09
    0.08522473 = sum of:
      0.067858756 = product of:
        0.20357625 = sum of:
          0.20357625 = weight(_text_:3a in 3577) [ClassicSimilarity], result of:
            0.20357625 = score(doc=3577,freq=2.0), product of:
              0.43466842 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.051270094 = queryNorm
              0.46834838 = fieldWeight in 3577, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3577)
        0.33333334 = coord(1/3)
      0.017365975 = product of:
        0.03473195 = sum of:
          0.03473195 = weight(_text_:22 in 3577) [ClassicSimilarity], result of:
            0.03473195 = score(doc=3577,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 3577, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3577)
        0.5 = coord(1/2)
    
    Content
    1. Agrarwissenschaften 1981. - 3. Allgemeine Geographie 2.1972. - 3a. Allgemeine Naturwissenschaften 1.1973. - 4. Allgemeine Sprachwissenschaft, Allgemeine Literaturwissenschaft 2.1971. - 6. Allgemeines. 5.1983. - 7. Anglistik 3.1976. - 8. Astronomie, Geodäsie 4.1977. - 12. bio Biologie, bcp Biochemie-Biophysik, bot Botanik, zoo Zoologie 1981. - 13. Bremensien 3.1983. - 13a. Buch- und Bibliothekswesen 3.1975. - 14. Chemie 4.1977. - 14a. Elektrotechnik 1974. - 15 Ethnologie 2.1976. - 16,1. Geowissenschaften. Sachteil 3.1977. - 16,2. Geowissenschaften. Regionaler Teil 3.1977. - 17. Germanistik 6.1984. - 17a,1. Geschichte. Teilsystematik hil. - 17a,2. Geschichte. Teilsystematik his Neuere Geschichte. - 17a,3. Geschichte. Teilsystematik hit Neueste Geschichte. - 18. Humanbiologie 2.1983. - 19. Ingenieurwissenschaften 1974. - 20. siehe 14a. - 21. klassische Philologie 3.1977. - 22. Klinische Medizin 1975. - 23. Kunstgeschichte 2.1971. - 24. Kybernetik. 2.1975. - 25. Mathematik 3.1974. - 26. Medizin 1976. - 26a. Militärwissenschaft 1985. - 27. Musikwissenschaft 1978. - 27a. Noten 2.1974. - 28. Ozeanographie 3.1977. -29. Pädagogik 8.1985. - 30. Philosphie 3.1974. - 31. Physik 3.1974. - 33. Politik, Politische Wissenschaft, Sozialwissenschaft. Soziologie. Länderschlüssel. Register 1981. - 34. Psychologie 2.1972. - 35. Publizistik und Kommunikationswissenschaft 1985. - 36. Rechtswissenschaften 1986. - 37. Regionale Geograpgie 3.1975. - 37a. Religionswissenschaft 1970. - 38. Romanistik 3.1976. - 39. Skandinavistik 4.1985. - 40. Slavistik 1977. - 40a. Sonstige Sprachen und Literaturen 1973. - 43. Sport 4.1983. - 44. Theaterwissenschaft 1985. - 45. Theologie 2.1976. - 45a. Ur- und Frühgeschichte, Archäologie 1970. - 47. Volkskunde 1976. - 47a. Wirtschaftswissenschaften 1971 // Schlüssel: 1. Länderschlüssel 1971. - 2. Formenschlüssel (Kurzform) 1974. - 3. Personenschlüssel Literatur 5. Fassung 1968
  18. Börner, K.: Atlas of knowledge : anyone can map (2015) 0.08
    0.08391395 = product of:
      0.1678279 = sum of:
        0.1678279 = sum of:
          0.10888583 = weight(_text_:daten in 3355) [ClassicSimilarity], result of:
            0.10888583 = score(doc=3355,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 3355, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=3355)
          0.058942076 = weight(_text_:22 in 3355) [ClassicSimilarity], result of:
            0.058942076 = score(doc=3355,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.32829654 = fieldWeight in 3355, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3355)
      0.5 = coord(1/2)
    
    Date
    22. 1.2017 16:54:03
    22. 1.2017 17:10:56
    RSWK
    Wissen / Daten / Visualisierung / Gebrauchsgrafik / Informationsgrafik / Thematische Karte
    Subject
    Wissen / Daten / Visualisierung / Gebrauchsgrafik / Informationsgrafik / Thematische Karte
  19. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.08
    0.0814305 = product of:
      0.162861 = sum of:
        0.162861 = product of:
          0.488583 = sum of:
            0.488583 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.488583 = score(doc=973,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  20. Computersicherheit und das Internet (1999) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 3009) [ClassicSimilarity], result of:
            0.10265854 = score(doc=3009,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 3009, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=3009)
          0.055571117 = weight(_text_:22 in 3009) [ClassicSimilarity], result of:
            0.055571117 = score(doc=3009,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 3009, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=3009)
      0.5 = coord(1/2)
    
    Abstract
    Tagtäglich verzeichnen Behörden und Unternehmen weltweit Versuche, in ihr Rechnernetzwerk einzudringen. Zumeist stecken wohl Jugendliche dahinter, die einen besonderen Kick darin finden, mitunter aber auch Kriminelle oder Spione, die Daten manipulieren, ausspähen und vernichten
    Date
    22. 2.1999 12:27:31

Languages

Types

  • a 3697
  • m 490
  • el 258
  • s 179
  • x 78
  • b 44
  • i 30
  • r 30
  • n 10
  • ? 9
  • p 7
  • d 4
  • u 2
  • z 2
  • au 1
  • h 1
  • More… Less…

Themes

Subjects

Classifications