Search (3697 results, page 1 of 185)

  • × type_ss:"a"
  1. Höfer, W.: Detektive im Web (1999) 0.14
    0.13593598 = product of:
      0.27187195 = sum of:
        0.27187195 = sum of:
          0.15398781 = weight(_text_:daten in 4007) [ClassicSimilarity], result of:
            0.15398781 = score(doc=4007,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.63103616 = fieldWeight in 4007, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.09375 = fieldNorm(doc=4007)
          0.11788415 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
            0.11788415 = score(doc=4007,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.6565931 = fieldWeight in 4007, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=4007)
      0.5 = coord(1/2)
    
    Abstract
    Ohne Altavista, Excite & Co. wären Internet-Surfer aufgeschmissen. Wie die Daten-Spürhunde arbeiten, wie Sie ihre Website anmelden und welche Tools helfen, steht in diesem Suchmaschinen-Special
    Date
    22. 8.1999 20:22:06
  2. Mosdorf, S.: Krypto-Gesetz wäre ein Blankoscheck zur staatlichen Überwachung : Ein gemeinsamer Bund-Länder-Regulierungsrat kann Daten- und Rechtssicherheit im Netzverkehr schaffen (1997) 0.12
    0.11867224 = product of:
      0.23734447 = sum of:
        0.23734447 = sum of:
          0.15398781 = weight(_text_:daten in 6291) [ClassicSimilarity], result of:
            0.15398781 = score(doc=6291,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.63103616 = fieldWeight in 6291, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.09375 = fieldNorm(doc=6291)
          0.08335667 = weight(_text_:22 in 6291) [ClassicSimilarity], result of:
            0.08335667 = score(doc=6291,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.46428138 = fieldWeight in 6291, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=6291)
      0.5 = coord(1/2)
    
    Source
    Frankfurter Rundschau. Nr.107 vom 10.5.1997, S.22
  3. Hintze, W.: Originalgetreue Dokumentdarstellung auf CD-ROM : Text-codierte Daten (1993) 0.12
    0.11867224 = product of:
      0.23734447 = sum of:
        0.23734447 = sum of:
          0.15398781 = weight(_text_:daten in 357) [ClassicSimilarity], result of:
            0.15398781 = score(doc=357,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.63103616 = fieldWeight in 357, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.09375 = fieldNorm(doc=357)
          0.08335667 = weight(_text_:22 in 357) [ClassicSimilarity], result of:
            0.08335667 = score(doc=357,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.46428138 = fieldWeight in 357, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=357)
      0.5 = coord(1/2)
    
    Source
    Technik und Information: Markt, Medien und Methoden. Deutscher Dokumentartag 1992, Technische Universität Berlin, 22.-25.9.1992. Hrsg.: W. Neubauer u. K.-H. Meier
  4. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.10
    0.10226967 = sum of:
      0.0814305 = product of:
        0.2442915 = sum of:
          0.2442915 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
            0.2442915 = score(doc=562,freq=2.0), product of:
              0.43466842 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.051270094 = queryNorm
              0.56201804 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.33333334 = coord(1/3)
      0.020839168 = product of:
        0.041678336 = sum of:
          0.041678336 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
            0.041678336 = score(doc=562,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.5 = coord(1/2)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  5. Bock, H.-H.: Datenanalyse zur Strukturierung und Ordnung von Information (1989) 0.10
    0.102104165 = product of:
      0.20420833 = sum of:
        0.20420833 = sum of:
          0.1555836 = weight(_text_:daten in 141) [ClassicSimilarity], result of:
            0.1555836 = score(doc=141,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.6375756 = fieldWeight in 141, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=141)
          0.048624728 = weight(_text_:22 in 141) [ClassicSimilarity], result of:
            0.048624728 = score(doc=141,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 141, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=141)
      0.5 = coord(1/2)
    
    Abstract
    Aufgabe der Datenanalyse ist es, Daten zu ordnen, übersichtlich darzustellen, verborgene und natürlich Strukturen zu entdecken, die diesbezüglich wesentlichen Eigenschaften herauszukristallisieren und zweckmäßige Modelle zur Beschreibung von Daten aufzustellen. Es wird ein Einblick in die Methoden und Prinzipien der Datenanalyse vermittelt. Anhand typischer Beispiele wird gezeigt, welche Daten analysiert, welche Strukturen betrachtet, welche Darstellungs- bzw. Ordnungsmethoden verwendet, welche Zielsetzungen verfolgt und welche Bewertungskriterien dabei angewendet werden können. Diskutiert wird auch die angemessene Verwendung der unterschiedlichen Methoden, wobei auf die gefahr und Art von Fehlinterpretationen hingewiesen wird
    Pages
    S.1-22
  6. Karisch, K.-H.: Rasen auf dem Daten-Highway soll Schule machen : Bei Bonner Politikern und in deutschen Klassenzimmern ist das Internet-Fieber ausgebrochen (1996) 0.10
    0.09889354 = product of:
      0.19778708 = sum of:
        0.19778708 = sum of:
          0.12832318 = weight(_text_:daten in 4654) [ClassicSimilarity], result of:
            0.12832318 = score(doc=4654,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.52586347 = fieldWeight in 4654, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.078125 = fieldNorm(doc=4654)
          0.0694639 = weight(_text_:22 in 4654) [ClassicSimilarity], result of:
            0.0694639 = score(doc=4654,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.38690117 = fieldWeight in 4654, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=4654)
      0.5 = coord(1/2)
    
    Date
    17. 7.1996 9:33:22
  7. Paulus, W.; Weishaupt, K.: Bibliotheksdaten werden mehr wert : LibLink wertet bibliothekarische Dienstleistung auf (1996) 0.10
    0.09889354 = product of:
      0.19778708 = sum of:
        0.19778708 = sum of:
          0.12832318 = weight(_text_:daten in 5228) [ClassicSimilarity], result of:
            0.12832318 = score(doc=5228,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.52586347 = fieldWeight in 5228, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.078125 = fieldNorm(doc=5228)
          0.0694639 = weight(_text_:22 in 5228) [ClassicSimilarity], result of:
            0.0694639 = score(doc=5228,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.38690117 = fieldWeight in 5228, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=5228)
      0.5 = coord(1/2)
    
    Abstract
    Die maschinenlesbaren Katalogdaten der Bibliotheken wurden bisher hauptsächlich intern genutzt. Die im Institut Arbeit und Technik entwickelte Software LibLink ermöglich es, diese Daten auch im wissenschaftlichen Kontext zu verwenden
    Date
    29. 9.1996 18:58:22
  8. Breyer, K.: Kommerz statt Information (2002) 0.10
    0.09889354 = product of:
      0.19778708 = sum of:
        0.19778708 = sum of:
          0.12832318 = weight(_text_:daten in 568) [ClassicSimilarity], result of:
            0.12832318 = score(doc=568,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.52586347 = fieldWeight in 568, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.078125 = fieldNorm(doc=568)
          0.0694639 = weight(_text_:22 in 568) [ClassicSimilarity], result of:
            0.0694639 = score(doc=568,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.38690117 = fieldWeight in 568, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=568)
      0.5 = coord(1/2)
    
    Abstract
    Äußerst schwache Leistungen liefern die meisten Suchmaschinen, wenn aktuelle Infos gefragt sind. Stattdessen wird zu viel versteckte Werbung gezeigt. PCpro erklärt, wie User aktuelle Daten finden
    Date
    9. 5.2002 21:21:22
  9. Luca, E.W. de; Dahlberg, I.: ¬Die Multilingual Lexical Linked Data Cloud : eine mögliche Zugangsoptimierung? (2014) 0.10
    0.097833075 = product of:
      0.19566615 = sum of:
        0.19566615 = sum of:
          0.15398781 = weight(_text_:daten in 1736) [ClassicSimilarity], result of:
            0.15398781 = score(doc=1736,freq=8.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.63103616 = fieldWeight in 1736, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
          0.041678336 = weight(_text_:22 in 1736) [ClassicSimilarity], result of:
            0.041678336 = score(doc=1736,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
      0.5 = coord(1/2)
    
    Abstract
    Sehr viele Informationen sind bereits im Web verfügbar oder können aus isolierten strukturierten Datenspeichern wie Informationssystemen und sozialen Netzwerken gewonnen werden. Datenintegration durch Nachbearbeitung oder durch Suchmechanismen (z. B. D2R) ist deshalb wichtig, um Informationen allgemein verwendbar zu machen. Semantische Technologien ermöglichen die Verwendung definierter Verbindungen (typisierter Links), durch die ihre Beziehungen zueinander festgehalten werden, was Vorteile für jede Anwendung bietet, die das in Daten enthaltene Wissen wieder verwenden kann. Um ­eine semantische Daten-Landkarte herzustellen, benötigen wir Wissen über die einzelnen Daten und ihre Beziehung zu anderen Daten. Dieser Beitrag stellt unsere Arbeit zur Benutzung von Lexical Linked Data (LLD) durch ein Meta-Modell vor, das alle Ressourcen enthält und zudem die Möglichkeit bietet sie unter unterschiedlichen Gesichtspunkten aufzufinden. Wir verbinden damit bestehende Arbeiten über Wissensgebiete (basierend auf der Information Coding Classification) mit der Multilingual Lexical Linked Data Cloud (basierend auf der RDF/OWL-Repräsentation von EuroWordNet und den ähnlichen integrierten lexikalischen Ressourcen MultiWordNet, MEMODATA und die Hamburg Metapher DB).
    Date
    22. 9.2014 19:00:13
  10. Semar, W.: Kryptografie (2004) 0.10
    0.095947556 = product of:
      0.19189511 = sum of:
        0.19189511 = sum of:
          0.15716316 = weight(_text_:daten in 2956) [ClassicSimilarity], result of:
            0.15716316 = score(doc=2956,freq=12.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.6440486 = fieldWeight in 2956, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2956)
          0.03473195 = weight(_text_:22 in 2956) [ClassicSimilarity], result of:
            0.03473195 = score(doc=2956,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 2956, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2956)
      0.5 = coord(1/2)
    
    Abstract
    Kryptografie ist die Lehre von der Verschlüsselung von Daten und den Techniken, die zur Realisierung derselben verwendet werden. Sie hat längst die Grauzone der Spionage und des Militärbereichs überschritten und ist als Schlüsseltechnik für die Absicherung weltweiter Computernetze von zentraler Bedeutung. Die Art und vor allem die Menge der Daten, die schützenswert sind, haben sich mit der Verbreitung elektronischer Datenverarbeitung deutlich gewandelt. Es werden nicht nur im Berufs-, sondern auch zunehmend im Privatleben Informationen vor unberechtigtem Zugriff und vor Manipulation geschützt. Verschlüsselungsverfahren kommen im Rahmen der Datenübertragung, besonders in offenen Netzen wie dem Internet, eine besondere Bedeutung zu. Die Kryptografie soll die Vertraulichkeit von Daten ermöglichen. Schließlich hat jede Person und jede Organisation ein legitimes Interesse an dem Schutz ihrer Daten vor Ausspähung. Neben dem offensichtlichen Zweck der Geheimhaltung muss die Kryptografie weitere, grundlegende Kriterien erfüllen wie die Integrität, die Authentizität und die Verbindlichkeit beim Austausch von empfindlichen Daten. Diese vier Kriterien müssen erfüllt sein, wenn eine optimale Datensicherheit gewährleistet sein soll. Für jedes Kriterium gibt es eigene Lösungsmöglichkeiten, die Kunst liegt darin, mit einem Verschlüsselungssystem möglichst alle vier Kriterien gleichzeitig zu erfüllen. Ein weiteres Ziel kann in manchen Situationen Anonymität sein, z. B. beim elektronischen Geld. Darunter wird die Vertraulichkeit nicht des Nachrichteninhalts, sondern sogar des vollständigen Kommunikationsvorgangs als solchem verstanden. Genau genommen muss zwischen der Kryptografie, die sich mit der Verschlüsselung von Daten beschäftigt, und der Kryptoanalyse, die sich mit derer Entschlüsselung beschäftigt, unterschieden werden. Der Oberbegriff für beide Disziplinen ist Kryptologie.
    Date
    5. 4.2013 10:22:37
  11. Graumann, S.; Bredemeier, W.; Köhne, B.: Aktualisierte Grundlagenstudie zur Informationswirtschaft : Im Auftrag des Bundeswirtschaftsministeriums (2002) 0.09
    0.08751786 = product of:
      0.17503572 = sum of:
        0.17503572 = sum of:
          0.13335738 = weight(_text_:daten in 616) [ClassicSimilarity], result of:
            0.13335738 = score(doc=616,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.5464934 = fieldWeight in 616, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=616)
          0.041678336 = weight(_text_:22 in 616) [ClassicSimilarity], result of:
            0.041678336 = score(doc=616,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 616, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=616)
      0.5 = coord(1/2)
    
    Abstract
    Mit insgesamt sechs halbjährlichen Faktenberichten, ergänzt durch jährliche Trendberichte, analysieren NFO Infratest Bereich Information und Dokumentation, München und das Institute for Information Economics, Hattingen, im Auftrag des Bundesministeriums für Wirtschaft und Technologie bis zum Jahr 2003 den Entwicklungsstand der Informationswirtschaft und seiner Teilmärkte in Deutschland im weltweiten Vergleich. Der vierte Faktenbericht ist eine internationale Benchmarking-Studie, die die deutsche Informationswirtschaft im Vergleich zu Europa, USA und Japan beschreibt. Es werden verlässliche und aktuelle Daten zurMarktentwicklung ermittelt und über mehrere Jahre fortgeschrieben. 26 Prozent der Daten enthalten Prognosen bis 2010, 41 Prozent werden zusätzlich in Zeitreihen (1999 bis 2005) dargestellt die wichtigsten Daten werden in Form von 436 Charts visualisiert. Der Trendbericht ergänzt diese Darstellung durch eine Befragung deutscher Experten, die ein differenziertes und umfassendes Meinungs- und Stimmungsbild der Informationswirtschaft zu den für sie zentralen Fragen ergeben und auf bevorstehende Entwicklungen in der Informationswirtschaft aufmerksam machen. DerArtikel fasst die wesentlichen Ergebnisse des 4. Faktenberichts und 2. Trendberichts zusammen. Alle Berichte sowie Charts können unentgeltlich unter http://www.infrasearch.de/bmwi heruntergeladen werden.
    Date
    28.11.2004 13:03:22
  12. Niemann, C.: Tag-Science : Ein Analysemodell zur Nutzbarkeit von Tagging-Daten (2011) 0.09
    0.08751786 = product of:
      0.17503572 = sum of:
        0.17503572 = sum of:
          0.13335738 = weight(_text_:daten in 164) [ClassicSimilarity], result of:
            0.13335738 = score(doc=164,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.5464934 = fieldWeight in 164, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=164)
          0.041678336 = weight(_text_:22 in 164) [ClassicSimilarity], result of:
            0.041678336 = score(doc=164,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 164, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=164)
      0.5 = coord(1/2)
    
    Abstract
    Social-Tagging-Systeme, die sich für das Wissensmanagement rapide wachsender Informationsmengen zunehmend durchsetzen, sind ein ambivalentes Phänomen. Sie bieten Kundennähe und entfalten ein beachtliches kreatives Potenzial. Sie erzeugen aber ebenso große Mengen völlig unkontrollierter Meta-Informationen. Aus Sicht gepflegter Vokabularien, wie sie sich etwa in Thesauri finden, handelt es sich bei völlig frei vergebenen Nutzerschlagwörtern (den "Tags") deshalb um "chaotische" Sacherschließung. Andererseits ist auch die These einer "Schwarmintelligenz", die in diesem Chaos wertvolles Wissen als Gemeinschaftsprodukt erzeugt, nicht von der Hand zu weisen. Die Frage ist also: Wie lassen sich aus Tagging-Daten Meta-Informationen generieren, die nach Qualität und Ordnung wissenschaftlichen Standards entsprechen - nicht zuletzt zur Optimierung eines kontrollierten Vokabulars? Der Beitrag stellt ein Analysemodell zur Nutzbarkeit von Tagging-Daten vor.
    Source
    ¬Die Kraft der digitalen Unordnung: 32. Arbeits- und Fortbildungstagung der ASpB e. V., Sektion 5 im Deutschen Bibliotheksverband, 22.-25. September 2009 in der Universität Karlsruhe. Hrsg: Jadwiga Warmbrunn u.a
  13. Münnich, K.; Reichelt, D.: XML-Helfer : Acht XML-Werkzeuge im Vergleich (2003) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 1890) [ClassicSimilarity], result of:
            0.10265854 = score(doc=1890,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 1890, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=1890)
          0.055571117 = weight(_text_:22 in 1890) [ClassicSimilarity], result of:
            0.055571117 = score(doc=1890,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 1890, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1890)
      0.5 = coord(1/2)
    
    Abstract
    Die Extensible Markup Language (XML) eignet sich ideal für die plattformübergreifende Verarbeitung von Daten. Internet Pro prüft, welche kommerziellen XML-Editoren Entwickler am besten unterstützen. Vergleich mit der Freeware Peter's XML Editor
    Date
    25.10.2003 18:22:41
  14. Leskien, H.: ¬Der lange Weg des Bibliotheksverbunds Bayern zu einem Ablösesystem für BVB-KAT (2001) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 1774) [ClassicSimilarity], result of:
            0.10265854 = score(doc=1774,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 1774, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=1774)
          0.055571117 = weight(_text_:22 in 1774) [ClassicSimilarity], result of:
            0.055571117 = score(doc=1774,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 1774, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1774)
      0.5 = coord(1/2)
    
    Abstract
    Nach dem Scheitern des gemeinschaftlichen Projekts von vier Verbundregionen musste der Bibliotheksverbund Bayern rasch die nicht Jahr-2000-fähige Verbundsoftware migrieren und zeitgleich die Suche nach einer geeigneten neuen Verbundsoftware fortsetzen. Durch Hochrüstung von Hard- und Software wurde das Jahr 2000 konfliktlos erreicht. Das neue Verbundkonzept sieht eine veränderte Arbeitsteilung zwischen zentral gehaltenen bibliographischen Daten und den Bestandsdaten auf der Ebene der Lokalsysteme vor. Hierfür werden Anforderungen definiert.
    Date
    22. 3.2008 13:54:28
  15. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 4427) [ClassicSimilarity], result of:
            0.10265854 = score(doc=4427,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
          0.055571117 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
            0.055571117 = score(doc=4427,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
      0.5 = coord(1/2)
    
    Abstract
    Künstliche Intelligenz kann lernen anhand von Erfahrungen und Vorgaben. Das Problem ist aber, dass sich maschinelles Lernen zwar in eine bestimmte Richtung steuern lässt, um bestimmte Probleme zu lösen, dass aber der Programmierer mitunter nicht mehr weiß, was in dem "künstlichen Gehirn" bzw. dem neuronalen Netzwerk vor sich geht, das mit zunehmender Komplexität und Lernerfahrung für den Menschen zur Black Box wird, wo man nur sehen kann, was an Daten einfließt und was herauskommt.
    Date
    22. 1.2018 11:08:27
  16. Rieth, D.: Erstellung eines Diabetes Portals für einen mittelständischen Verlag auf XML-Basis (2001) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 5878) [ClassicSimilarity], result of:
            0.10888583 = score(doc=5878,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 5878, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=5878)
          0.041678336 = weight(_text_:22 in 5878) [ClassicSimilarity], result of:
            0.041678336 = score(doc=5878,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 5878, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=5878)
      0.5 = coord(1/2)
    
    Abstract
    Ein mittelständischer Verlag kann sehr schwer vor allem retrospektiv auf XML umstellen, um seine Internetanwendungen zukunftsträchtig zu organisieren. Der Einsatz von Microsoft Word und der systematische Einsatz von Stylesheets war ein pragmatischer Ansatz, sieben Zeitschriften in nur drei Monaten via XML ins Internetportal zu bringen. Daneben musste ein Konzept für eine Adressdatenbank und Termindatenbank gefunden werden, deren Daten direkt online publiziert werden sollten. Zudem musste die Integration der Abonnentendatendaten zum Zugriffsschutz eingebaut werden, aber direkte Eingabe online von neuen Daten neben der offiziellen Datenbank gewährleistet sein. Webdesign und Webhosting rundeten das Full Service Konzept ab, eine vollständige Automatisierung aller Updateprozesse wurde angestrebt, um wirtschaftlich arbeiten zu können. Der Vortrag erklärt das Gesamtkonzept, vertieft die XML-Aufbereitung und konkretisiert die automatisierten Prozesse des Updates und die schnelle Durchführung des Projektes, ohne dass der Verlag über spezifisches Internet Know-how verfügen muss
    Date
    17. 5.2001 20:11:22
  17. Lautenschlager, M.; Sens, I.: Konzept zur Zitierfähigkeit wissenschaftlicher Primärdaten (2003) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 2007) [ClassicSimilarity], result of:
            0.10888583 = score(doc=2007,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 2007, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=2007)
          0.041678336 = weight(_text_:22 in 2007) [ClassicSimilarity], result of:
            0.041678336 = score(doc=2007,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 2007, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2007)
      0.5 = coord(1/2)
    
    Abstract
    Wissenschaftliche Primärdaten werden hier verstanden als Primärdaten gekoppelt mit ihrer bibliographischen Beschreibung (Metadaten). Im wissenschaftlichen Bereich besteht zwar grundsätzlich Bereitschaft, Daten zur Verfügung zu stellen, aber die erforderliche Mehrarbeit für Aufbereitung, Kontextdokumentation und Oualitätssicherung wird üblicherweise nicht anerkannt. Die klassische Form der Verbreitung wissenschaftlicher Ergebnisse ist ihre Veröffentlichung in Fachzeitschriften. Derartige Zeitschriftenartikel werden im "Citation Index" erfasst. Dieser Index wird zur Leistungsbewertung von Wissenschaftlern herangezogen. Datenveröffentlichungen werden darin bisher nicht berücksichtigt. Arbeitshypothese ist ein "Scientific and Technical Data - DOI" in der Verantwortung der Wissenschaften. Eine solche Organisation von Primärdaten-DOI im Bereich der Wissenschaften erlaubt beispielsweise Zugangsregelungen ohne kommerziellen Hintergrund und das Urheberrecht könnte bei den Datenproduzenten verbleiben. Im Rahmen einer DFG finanzierten CODATA-Arbeitsgruppe wurden Defizite in der Verfügbarkeit wissenschaftlicher Daten, insbesondere zur interdisziplinären Datennutzung, identifiziert und die Ursachen analysiert. Ein Konzept zur Verbesserung der elektronischen Datenbereitstellung, basierend auf dem DOI, wird vorgestellt und Möglichkeiten zur Umsetzung aufgezeigt. (Abkürzungen im Text sind im Anhang aufgelistet.)
    Date
    28.11.2004 13:09:22
  18. Zedlitz, J.: Biographische Normdaten : ein Überblick (2017) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 3502) [ClassicSimilarity], result of:
            0.10888583 = score(doc=3502,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 3502, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=3502)
          0.041678336 = weight(_text_:22 in 3502) [ClassicSimilarity], result of:
            0.041678336 = score(doc=3502,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 3502, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3502)
      0.5 = coord(1/2)
    
    Abstract
    Um das Leben und Werk historischer Personen und historische Ereignisse verstehen zu können, benötigen Wissenschaftler als primäre Quelle historische Dokumente. Das Entdecken und Auffinden dieser Dokumente in Archiven ist seit jeher eine aufwändige Aufgabe. In vielen Fällen ist sie mit einer großen Portion Glück verbunden, die richtige Archivalie im Bestand ausfindig zu machen. Mit Katalogen und anderen Findmitteln helfen Archive Forschern bereits beim Aufspüren dieser Quellen. Um Material zu einer bestimmten Person auffindbar zu machen, werden in der Regel biographische Normdaten bereitgehalten, die als Einstiegspunkt in eine Suche dienen. Der Begriff "Normdaten" kann unter zwei Aspekten verstanden werden: 1. Vergabe und Verwendung einer eindeutigen Kennung für eine Person, um sie in verschiedenen Systemen zu finden und 2. als eine normierte Schreibweise, um biographische Daten zu einer Person so aufzuschreiben, dass die Daten interoperabel, also auch außerhalb des ursprünglichen Systems (nach-)genutzt werden können.
    Source
    Archivar. 70(2017) H.1, S.22-25
  19. TIB weltweit erste zentrale Registrierungsagentur für Primärdaten (2005) 0.07
    0.07128065 = product of:
      0.1425613 = sum of:
        0.1425613 = sum of:
          0.11477575 = weight(_text_:daten in 3997) [ClassicSimilarity], result of:
            0.11477575 = score(doc=3997,freq=10.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.4703466 = fieldWeight in 3997, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=3997)
          0.027785558 = weight(_text_:22 in 3997) [ClassicSimilarity], result of:
            0.027785558 = score(doc=3997,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 3997, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3997)
      0.5 = coord(1/2)
    
    Content
    "Die TI B ist die weltweit erste Registrierungsagentur fürwissenschaftliche Primärdaten. In Zusammenarbeit mit dem Weltklimadatenzentrum am Max-Planck-Institut für Meteorologie (Hamburg), dem Geoforschungszentrum (Potsdam), dem Weltdatenzentrum MARE am Alfred-Wegener-Institut (Bremerhaven) und der Universität Bremen sowie dem Forschungszentrum L3S (Hannover) wurde das DFG-finanzierte Projekt Codata »Publikation und Zitierfähigkeit wissenschaftlicher Primärdaten« 2004 mit dem Ziel aus der Taufe gehoben, den Zugang zu wissenschaftlichen Primärdaten zu verbessern. In Codata wurde ein Modell entwickelt, welches erstmals den Nachweis und die Zitierfähigkeit von Primärdaten ermöglicht und eine dauerhafte Adressierbarkeit gewährleistet. Nutznießer dieses neuen Verfahrens sind in erster Linie Wissenschaftler, die eigene Primärdaten erheben, sowie diejenigen, die diese Daten für eigene, weiterführende Arbeiten nutzen wollen. Der klassische Weg der Veröffentlichung von Forschungsergebnissen führt über Aufsätze in Fachzeitschriften, welche im »Citation Index« aufgelistet werden. Anhand dessen findet eine Leistungsbewertung der Wissenschaftler statt. Veröffentlichungen von Primärdaten, die für Wissenschaftler zusätzliche Arbeit hinsichtlich Aufbereitung, Dokumentation und Qualitätssicherung bedeuten, wurden bisher nicht in die Bewertung mit aufgenommen. Wissenschaftliches Fehlverhalten in der Vergangenheit führte zu den so genannten »Regeln zur guten wissenschaftlichen Praxis«, empfohlen von der Deutschen Forschungsgemeinschaft (DFG). Diese Regeln beinhalten Richtlinien hinsichtlich Datenzugang und Langzeitarchivierung. Daten, die allgemein verfügbaren Publikationen zugrunde liegen, sollen auch für andere überprüfbar und ihre Erhebung nachvollziehbar sein. Gleichzeitig trägt Codata der seit langem formulierten Forderung nach freiem Online-Zugang zu jeder Art wissenschaftlicher Information Rechnung und unterstützt damit die Open Access-Initiative. Das neue Konzept der Zitierfähigkeit von Primärdaten verbindet wissenschaftliche Langzeitarchive mit traditionellen Bibliothekskatalogen, um wissenschaftliche Daten nachweisbar und zusammen mit alternativen Informationsressourcen suchbarzu machen. Die TIB speichert die Informationen zu den Primärdaten ab und versieht die Daten mit einer eindeutigen Identifikationsnummer, einem Digital Object Identifier (DOI). Nun ist jeder Wissenschaftler in der Lage, die Daten in seiner Arbeit mit der DOI als einzigartiger Kennung zu zitieren. Zitiert werden Autor, Jahr der Veröffentlichung, Titel sowie der DOI als einzigartige Zugangskennung. Wissenschaftliche Primärdaten bekommen dadurch eine eigene Identität und können als unabhängige, eigenständige Informationseinheit genutzt werden. Inzwischen wurden bereits 220000 Datensätze in der TIB registriert. Vierzig Datensätze sind mittlerweile über Tiborder, das Bestell- und Liefersystem der TIB, nachweisbar und zugänglich. Bis Ende des Jahres sollen rund 1,5 Millionen Datensätze von der TIB registriert sein. Zurzeit sind vornehmlich Messdaten aus dem Gebiet der Geowissenschaften registriert, ab 2006 wird die Registrierung von Primärdaten auch auf andere Sammelgebiete ausgeweitet."
    Date
    22. 9.2005 19:38:42
  20. Capurro, R.: Wissensmanagement in Theorie und Praxis (1998) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 2848) [ClassicSimilarity], result of:
            0.089826226 = score(doc=2848,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 2848, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2848)
          0.048624728 = weight(_text_:22 in 2848) [ClassicSimilarity], result of:
            0.048624728 = score(doc=2848,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 2848, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2848)
      0.5 = coord(1/2)
    
    Abstract
    Das Management von Daten, Information und wissen prägt die aktuelle Theorie und Praxis unternehmerischen Handelns. Der hier gewählte Einstieg in die theoretische Diskussion bildet der klassische Ansatz von I. Nonaka und H. Takeuchi über kreative Prozesse im Umgang mit der Wissensressource in Unternehmen. Es wird dabei auf Rezeption und Kritik dieses Ansatzes durch G. Schreyögg, Chr. Noss, D.B. Bürgel, A. Zeller und P. Reinmöller eingegangen. Im zweiten Teil, der sich mit der Praxis des Wissensmanagements befaßt, werden Beispiele aus Nonaka/Takeuchi sowie aus den von Th. Davenport und L. Prusak in ihrem Buch 'Working knowledge' (1997) analysierten Fällen aufgeführt. Die Darstellung schließt mit Hinweisen auf deutsche Unternehmen sowie auf Veranstaltungen und Websites zu diesem Thema. Der Ausblick gibt Auskunft über die Bedeutung von Wissensmanagement in der FH Stuttgart (HBI)
    Source
    Bibliothek: Forschung und Praxis. 22(1998) H.3, S.344-353

Languages

Types

  • el 125
  • b 34
  • p 1
  • More… Less…

Themes