Search (1480 results, page 1 of 74)

  • × year_i:[2000 TO 2010}
  1. Ackermann, E.: Piaget's constructivism, Papert's constructionism : what's the difference? (2001) 0.11
    0.11392936 = product of:
      0.22785872 = sum of:
        0.22785872 = product of:
          0.45571744 = sum of:
            0.17782538 = weight(_text_:3a in 692) [ClassicSimilarity], result of:
              0.17782538 = score(doc=692,freq=2.0), product of:
                0.37968612 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04478481 = queryNorm
                0.46834838 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
            0.27789205 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.27789205 = score(doc=692,freq=2.0), product of:
                0.47464174 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.04478481 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(2/4)
      0.5 = coord(1/2)
    
    Content
    Vgl.: https://www.semanticscholar.org/paper/Piaget-%E2%80%99-s-Constructivism-%2C-Papert-%E2%80%99-s-%3A-What-%E2%80%99-s-Ackermann/89cbcc1e740a4591443ff4765a6ae8df0fdf5554. Darunter weitere Hinweise auf verwandte Beiträge. Auch unter: Learning Group Publication 5(2001) no.3, S.438.
  2. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.08
    0.08464232 = sum of:
      0.06947301 = product of:
        0.27789205 = sum of:
          0.27789205 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
            0.27789205 = score(doc=193,freq=2.0), product of:
              0.47464174 = queryWeight, product of:
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.04478481 = queryNorm
              0.5854775 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.25 = coord(1/4)
      0.015169309 = product of:
        0.030338619 = sum of:
          0.030338619 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
            0.030338619 = score(doc=193,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.19345059 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.5 = coord(1/2)
    
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  3. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.07
    0.07155078 = sum of:
      0.05334761 = product of:
        0.21339044 = sum of:
          0.21339044 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
            0.21339044 = score(doc=562,freq=2.0), product of:
              0.37968612 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.04478481 = queryNorm
              0.56201804 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.25 = coord(1/4)
      0.018203171 = product of:
        0.036406342 = sum of:
          0.036406342 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
            0.036406342 = score(doc=562,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.5 = coord(1/2)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  4. Sireteanu, R.: "Dumpfes Sehen" verändert das Gehirn (2000) 0.07
    0.070571356 = product of:
      0.14114271 = sum of:
        0.14114271 = sum of:
          0.09866865 = weight(_text_:z in 5573) [ClassicSimilarity], result of:
            0.09866865 = score(doc=5573,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.41278675 = fieldWeight in 5573, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5573)
          0.042474065 = weight(_text_:22 in 5573) [ClassicSimilarity], result of:
            0.042474065 = score(doc=5573,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.2708308 = fieldWeight in 5573, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5573)
      0.5 = coord(1/2)
    
    Abstract
    Einer der faszinierendsten Aspekte der menschlichen visuellen Wahrnehmung ist die Fähigkeit, die Bilder der beiden Augen zu einem einheitlichen, räumlichen Wahrnehmungseindruck zu verschmelzen - einem Eindruck, bei dem Gegenstände sich plastisch von ihrem Hintergrund "abheben". Diese scheinbar mühelose Leistung erfordert ein einwandfreies visuelles Angebot in früher Kindheit. Störungen der Sehfähigkeit bei Babys und Kleinkindern, z. B. durch ungleiche Brechkraft der beiden Augen (Anisometropie), lichtundurchlässige Augenmedien aufgrund hängender Augenlider (Ptosis) oder angeborene Linsentrübung (Katarakt) können zu einem irreversiblen Verlust der Sehkraft auf einem oder beiden Augen führen. Fachleute sprechen in diesem Fall von Amblyopie, was soviel bedeutet wie "dumpfes Sehen"
    Source
    Max Planck Forschung. 2000, H.1, S.22-25
  5. Khurshid, Z.: ¬The impact of information technology an job requirements and qualifications for catalogers (2003) 0.07
    0.070571356 = product of:
      0.14114271 = sum of:
        0.14114271 = sum of:
          0.09866865 = weight(_text_:z in 2323) [ClassicSimilarity], result of:
            0.09866865 = score(doc=2323,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.41278675 = fieldWeight in 2323, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2323)
          0.042474065 = weight(_text_:22 in 2323) [ClassicSimilarity], result of:
            0.042474065 = score(doc=2323,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.2708308 = fieldWeight in 2323, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2323)
      0.5 = coord(1/2)
    
    Source
    Information technology and libraries. 22(2003) no. March, S.18-21
  6. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.07
    0.070571356 = product of:
      0.14114271 = sum of:
        0.14114271 = sum of:
          0.09866865 = weight(_text_:z in 3276) [ClassicSimilarity], result of:
            0.09866865 = score(doc=3276,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.41278675 = fieldWeight in 3276, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3276)
          0.042474065 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
            0.042474065 = score(doc=3276,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.2708308 = fieldWeight in 3276, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3276)
      0.5 = coord(1/2)
    
    Date
    20. 3.2005 16:23:22
  7. Wagner-Döbler, R.: Umberto Ecos Betrachtung einer benützerfeindlichen Bibliothek : 25 Jahre danach (2006) 0.07
    0.070571356 = product of:
      0.14114271 = sum of:
        0.14114271 = sum of:
          0.09866865 = weight(_text_:z in 29) [ClassicSimilarity], result of:
            0.09866865 = score(doc=29,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.41278675 = fieldWeight in 29, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0546875 = fieldNorm(doc=29)
          0.042474065 = weight(_text_:22 in 29) [ClassicSimilarity], result of:
            0.042474065 = score(doc=29,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.2708308 = fieldWeight in 29, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=29)
      0.5 = coord(1/2)
    
    Abstract
    Vor rund 25 Jahren entwarf Umberto Eco anlässlich des Jubiläums einer italienischen Stadtbibliothek die negative Utopie einer benützerfeindlichen Bibliothek, an deren hervorstechendste Eigenschaften im vorliegenden Beitrag erinnert wird. Vieles damals teils als Desiderat, teils fast als Utopie Empfundene ist heute erreicht, ja Selbstverständlichkeit geworden. Überträgt man Ecos Betrachtungsweise auf einige Aspekte der Benützerfreundlichkeit heutiger digitaler Bibliotheken und Informationsressourcen, wie z. B. Navigierbarkeit und Zugänglichkeit, lassen sich auch hier noch, dem Erreichten zum Trotz, Desiderate und Raumfür Utopien aufzeigen.
    Date
    27.10.2006 14:22:06
  8. Jiang, T.: Architektur und Anwendungen des kollaborativen Lernsystems K3 (2008) 0.07
    0.070571356 = product of:
      0.14114271 = sum of:
        0.14114271 = sum of:
          0.09866865 = weight(_text_:z in 1391) [ClassicSimilarity], result of:
            0.09866865 = score(doc=1391,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.41278675 = fieldWeight in 1391, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1391)
          0.042474065 = weight(_text_:22 in 1391) [ClassicSimilarity], result of:
            0.042474065 = score(doc=1391,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.2708308 = fieldWeight in 1391, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1391)
      0.5 = coord(1/2)
    
    Abstract
    Die K3-Architektur zur technischen Entwicklung und Realisierung des netzbasierten Wissensmanagement in der Lehre wird dargestellt. Das aktuelle K3-System besteht aus drei zentralen Komponenten; K3Forum (Diskurs), K3Vis (Visualisierung) und K3Wiki (kollaborative Textproduktion, z. B. für Zusammenfassungen). K3 verwendet Open-Source-Software unter der LGPL Lizenz.. Dadurch können freie Verwendung, überschaubare Entwicklungskosten und Nachhaltigkeit garantiert und die Unabhängigkeit von kommerziellen Software-Anbietern gesichert werden. Dank des komponentenbasierten Entwicklungskonzepts kann K3 flexibel und robust laufend weiterentwickelt werden, ohne die Stabilität der bestehenden Funktionalitäten zu beeinträchtigen. Der Artikel dokumentiert exemplarisch die Hauptkomponenten und Funktionen von K3, so dass nachfolgende Entwickler leicht eine Übersicht über das K3-System gewinnen können. Die Anforderungen an den Transfer des Systems in Umgebungen außerhalb von Konstanz werden beschrieben.
    Date
    10. 2.2008 14:22:00
  9. Verlic, Z.; Repinc, U.: Informacijsko vedenje z iskalno strategijo (2000) 0.07
    0.06976926 = product of:
      0.13953853 = sum of:
        0.13953853 = product of:
          0.27907705 = sum of:
            0.27907705 = weight(_text_:z in 7863) [ClassicSimilarity], result of:
              0.27907705 = score(doc=7863,freq=4.0), product of:
                0.23903055 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04478481 = queryNorm
                1.1675372 = fieldWeight in 7863, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.109375 = fieldNorm(doc=7863)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  10. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.07
    0.06851753 = product of:
      0.13703506 = sum of:
        0.13703506 = sum of:
          0.112764165 = weight(_text_:z in 3284) [ClassicSimilarity], result of:
            0.112764165 = score(doc=3284,freq=8.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.47175628 = fieldWeight in 3284, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.03125 = fieldNorm(doc=3284)
          0.024270894 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
            0.024270894 = score(doc=3284,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.15476047 = fieldWeight in 3284, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3284)
      0.5 = coord(1/2)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Date
    22. 1.2010 14:41:24
  11. Thissen, F.: Screen-Design-Manual : Communicating Effectively Through Multimedia (2003) 0.07
    0.0650045 = product of:
      0.130009 = sum of:
        0.130009 = sum of:
          0.09967038 = weight(_text_:z in 1397) [ClassicSimilarity], result of:
            0.09967038 = score(doc=1397,freq=4.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.41697758 = fieldWeight in 1397, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1397)
          0.030338619 = weight(_text_:22 in 1397) [ClassicSimilarity], result of:
            0.030338619 = score(doc=1397,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.19345059 = fieldWeight in 1397, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1397)
      0.5 = coord(1/2)
    
    Classification
    ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
    Date
    22. 3.2008 14:29:25
    RVK
    ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
  12. Neuroth, H.; Lepschy, P.: ¬Das EU-Projekt Renardus (2001) 0.06
    0.060489736 = product of:
      0.12097947 = sum of:
        0.12097947 = sum of:
          0.08457313 = weight(_text_:z in 5589) [ClassicSimilarity], result of:
            0.08457313 = score(doc=5589,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.35381722 = fieldWeight in 5589, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=5589)
          0.036406342 = weight(_text_:22 in 5589) [ClassicSimilarity], result of:
            0.036406342 = score(doc=5589,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 5589, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=5589)
      0.5 = coord(1/2)
    
    Abstract
    Der vollständige Projektname von Renardus lautet "Academic Subject Gateway Service Europe". Renardus wird von der Europäischen Union im 5. Rahmenprogramm mit dem Schwerpunktthema "Information Society Technologies" im zweiten Thematischen Programm "Benutzerfreundliche Informationsgesellschaft" ('Promoting a User-friendly Information Society') gefördert. Die Projektlaufzeit ist von Januar 2000 bis Juni 2002. Insgesamt zwölf Partner (Principal und Assistant Contractors) aus Finnland, Dänemark, Schweden, Großbritannien, den Niederlanden, Frankreich und Deutschland beteiligen sich an diesem Projekt. Die Europäische Union unterstützt das Projekt mit 1,7 Mio. EURO, die Gesamtkosten belaufen sich inklusive der Eigenbeteiligungen der Partner auf 2,3 Mio. EURO. Das Ziel des Projektes Renardus ist es, über eine Schnittstelle Zugriff auf verteilte Sammlungen von "High Quality" Internet Ressourcen in Europa zu ermöglichen. Diese Schnittstelle wird über den Renardus Broker realisiert, der das "Cross-Searchen" und "Cross-Browsen" über verteilte "Quality-Controlled Subject Gateways" ermöglicht. Ein weiteres Ziel von Renardus ist es, Möglichkeiten von "metadata sharing" zu evaluieren und in kleinen Experimenten zwischen z. B. Subject Gateways und Nationalbibliothek zu testen bzw. zu realisieren
    Date
    22. 6.2002 19:32:15
  13. Staatsbibliothek zu Berlin: Datenbank "Gesamtkatalog der Wiegendrucke" online (2003) 0.06
    0.060489736 = product of:
      0.12097947 = sum of:
        0.12097947 = sum of:
          0.08457313 = weight(_text_:z in 1933) [ClassicSimilarity], result of:
            0.08457313 = score(doc=1933,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.35381722 = fieldWeight in 1933, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=1933)
          0.036406342 = weight(_text_:22 in 1933) [ClassicSimilarity], result of:
            0.036406342 = score(doc=1933,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 1933, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1933)
      0.5 = coord(1/2)
    
    Abstract
    Die kostenfrei zugängliche Datenbank "Gesamtkatalog der Wiegendrucke" wurde am 20. August 2003 offiziell für die Fachwelt im Internet bereitgestellt. Ausgangspunkt für diese Datenbank ist die seit 1925 im Hiersemann Verlag in Einzelbänden erscheinende Druck-Version des "Gesamtkatalogs der Wiegendrucke", die weltweit sämtliche Drucke des 15. Jahrhunderts in alphabetischer Form nachweist. Der Gesamtkatalog der Wiegendrucke wird seit fast 100 Jahren in der Staatsbibliothek zu Berlin redaktionell bearbeitet. Bisher erschienen zehn Bände, die die Alphabetteile "A-H" umfassen. Dieses Material sowie die umfangreiche Materialsammlung der Redaktion, die nunmehr auch den Alphabetteil "I-Z" umfasst, wurde in den letzten Jahren mit Hilfe der Deutschen Forschungsgemeinschaft (DFG) elektronisch aufbereitet. Die Datenbank enthält unter anderem Angaben zum Umfang, zur Zeilenzahl, zu den Drucktypen sowie teilweise auch die Besitznachweise von Wiegendrucken. Anhand eines Verzeichnisses aller inkunabelbesitzenden Bibliotheken lassen sich die zum Teil spannenden Wege von Inkunabel-Sammlungen nachvollziehen. Die Suchmaschine ist keine übliche Web-Applikation. Sowohl Server als auch Klient laufen auf einem Applikations-Server in der Staatsbibliothek zu Berlin.
    Date
    21. 8.2004 18:42:22
  14. Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.06
    0.060489736 = product of:
      0.12097947 = sum of:
        0.12097947 = sum of:
          0.08457313 = weight(_text_:z in 2406) [ClassicSimilarity], result of:
            0.08457313 = score(doc=2406,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.35381722 = fieldWeight in 2406, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=2406)
          0.036406342 = weight(_text_:22 in 2406) [ClassicSimilarity], result of:
            0.036406342 = score(doc=2406,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 2406, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2406)
      0.5 = coord(1/2)
    
    Abstract
    Das Kompetenzzentrum Interoperable Metadaten (KIM) ist eine Informations- und Kommunikationsplattform für Metadatenanwender und -entwickler zur Verbesserung der Interoperabilität von Metadaten im deutschsprachigen Raum. KIM unterstützt und fördert die Erarbeitung von Metadatenstandards, die interoperable Gestaltung von Formaten und damit die optimale Nutzung von Metadaten in digitalen Informationsumgebungen mittels Lehrmaterialien, Schulungen und Beratungen. Das Kompetenzzentrum entsteht im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts KIM unter der Federführung der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) in Zusammenarbeit mit der Deutschen Nationalbibliothek (DNB). Projektpartner sind in der Schweiz die Hochschule für Technik und Wirtschaft HTW Chur, die Eidgenössische Technische Hochschule (ETH) Zürich und in Österreich die Universität Wien. Aufgabe des Kompetenzzentrums ist es, die Interoperabilität von Metadaten zu verbessern. Interoperabilität ist die Fähigkeit zur Zusammenarbeit von heterogenen Systemen. Datenbestände unabhängiger Systeme können ausgetauscht oder zusammengeführt werden, um z. B. eine systemübergreifende Suche oder das Browsen zu ermöglichen. Daten werden zum Teil in sehr unterschiedlichen Datenbanksystemen gespeichert. Interoperabilität entsteht dann, wenn die Systeme umfangreiche Schnittstellen implementieren, die ein weitgehend verlustfreies Mapping der internen Datenrepräsentation ermöglichen.
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.22-24
  15. Genereux, C.: Building connections : a review of the serials literature 2004 through 2005 (2007) 0.06
    0.060489736 = product of:
      0.12097947 = sum of:
        0.12097947 = sum of:
          0.08457313 = weight(_text_:z in 2548) [ClassicSimilarity], result of:
            0.08457313 = score(doc=2548,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.35381722 = fieldWeight in 2548, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=2548)
          0.036406342 = weight(_text_:22 in 2548) [ClassicSimilarity], result of:
            0.036406342 = score(doc=2548,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 2548, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2548)
      0.5 = coord(1/2)
    
    Abstract
    This review of 2004 and 2005 serials literature covers the themes of cost, management, and access. Interwoven through the serials literature of these two years are the importance of collaboration, communication, and linkages between scholars, publishers, subscription agents and other intermediaries, and librarians. The emphasis in the literature is on electronic serials and their impact on publishing, libraries, and vendors. In response to the crisis of escalating journal prices and libraries' dissatisfaction with the Big Deal licensing agreements, Open Access journals and publishing models were promoted. Libraries subscribed to or licensed increasing numbers of electronic serials. As a result, libraries sought ways to better manage licensing and subscription data (not handled by traditional integrated library systems) by implementing electronic resources management systems. In order to provide users with better, faster, and more current information on and access to electronic serials, libraries implemented tools and services to provide A-Z title lists, title by title coverage data, MARC records, and OpenURL link resolvers.
    Date
    10. 9.2000 17:38:22
  16. He, Z.-L.: International collaboration does not have greater epistemic authority (2009) 0.06
    0.060489736 = product of:
      0.12097947 = sum of:
        0.12097947 = sum of:
          0.08457313 = weight(_text_:z in 3122) [ClassicSimilarity], result of:
            0.08457313 = score(doc=3122,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.35381722 = fieldWeight in 3122, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.046875 = fieldNorm(doc=3122)
          0.036406342 = weight(_text_:22 in 3122) [ClassicSimilarity], result of:
            0.036406342 = score(doc=3122,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.23214069 = fieldWeight in 3122, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3122)
      0.5 = coord(1/2)
    
    Date
    26. 9.2009 11:22:05
  17. Doszkocs, T.E.; Zamora, A.: Dictionary services and spelling aids for Web searching (2004) 0.06
    0.056691445 = product of:
      0.11338289 = sum of:
        0.11338289 = sum of:
          0.070477605 = weight(_text_:z in 2541) [ClassicSimilarity], result of:
            0.070477605 = score(doc=2541,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.29484767 = fieldWeight in 2541, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2541)
          0.042905286 = weight(_text_:22 in 2541) [ClassicSimilarity], result of:
            0.042905286 = score(doc=2541,freq=4.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.27358043 = fieldWeight in 2541, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2541)
      0.5 = coord(1/2)
    
    Abstract
    The Specialized Information Services Division (SIS) of the National Library of Medicine (NLM) provides Web access to more than a dozen scientific databases on toxicology and the environment on TOXNET . Search queries on TOXNET often include misspelled or variant English words, medical and scientific jargon and chemical names. Following the example of search engines like Google and ClinicalTrials.gov, we set out to develop a spelling "suggestion" system for increased recall and precision in TOXNET searching. This paper describes development of dictionary technology that can be used in a variety of applications such as orthographic verification, writing aid, natural language processing, and information storage and retrieval. The design of the technology allows building complex applications using the components developed in the earlier phases of the work in a modular fashion without extensive rewriting of computer code. Since many of the potential applications envisioned for this work have on-line or web-based interfaces, the dictionaries and other computer components must have fast response, and must be adaptable to open-ended database vocabularies, including chemical nomenclature. The dictionary vocabulary for this work was derived from SIS and other databases and specialized resources, such as NLM's Unified Medical Language Systems (UMLS) . The resulting technology, A-Z Dictionary (AZdict), has three major constituents: 1) the vocabulary list, 2) the word attributes that define part of speech and morphological relationships between words in the list, and 3) a set of programs that implements the retrieval of words and their attributes, and determines similarity between words (ChemSpell). These three components can be used in various applications such as spelling verification, spelling aid, part-of-speech tagging, paraphrasing, and many other natural language processing functions.
    Date
    14. 8.2004 17:22:56
    Source
    Online. 28(2004) no.3, S.22-29
  18. Semar, W.: Kryptografie (2004) 0.05
    0.05040811 = product of:
      0.10081622 = sum of:
        0.10081622 = sum of:
          0.070477605 = weight(_text_:z in 2956) [ClassicSimilarity], result of:
            0.070477605 = score(doc=2956,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.29484767 = fieldWeight in 2956, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2956)
          0.030338619 = weight(_text_:22 in 2956) [ClassicSimilarity], result of:
            0.030338619 = score(doc=2956,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.19345059 = fieldWeight in 2956, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2956)
      0.5 = coord(1/2)
    
    Abstract
    Kryptografie ist die Lehre von der Verschlüsselung von Daten und den Techniken, die zur Realisierung derselben verwendet werden. Sie hat längst die Grauzone der Spionage und des Militärbereichs überschritten und ist als Schlüsseltechnik für die Absicherung weltweiter Computernetze von zentraler Bedeutung. Die Art und vor allem die Menge der Daten, die schützenswert sind, haben sich mit der Verbreitung elektronischer Datenverarbeitung deutlich gewandelt. Es werden nicht nur im Berufs-, sondern auch zunehmend im Privatleben Informationen vor unberechtigtem Zugriff und vor Manipulation geschützt. Verschlüsselungsverfahren kommen im Rahmen der Datenübertragung, besonders in offenen Netzen wie dem Internet, eine besondere Bedeutung zu. Die Kryptografie soll die Vertraulichkeit von Daten ermöglichen. Schließlich hat jede Person und jede Organisation ein legitimes Interesse an dem Schutz ihrer Daten vor Ausspähung. Neben dem offensichtlichen Zweck der Geheimhaltung muss die Kryptografie weitere, grundlegende Kriterien erfüllen wie die Integrität, die Authentizität und die Verbindlichkeit beim Austausch von empfindlichen Daten. Diese vier Kriterien müssen erfüllt sein, wenn eine optimale Datensicherheit gewährleistet sein soll. Für jedes Kriterium gibt es eigene Lösungsmöglichkeiten, die Kunst liegt darin, mit einem Verschlüsselungssystem möglichst alle vier Kriterien gleichzeitig zu erfüllen. Ein weiteres Ziel kann in manchen Situationen Anonymität sein, z. B. beim elektronischen Geld. Darunter wird die Vertraulichkeit nicht des Nachrichteninhalts, sondern sogar des vollständigen Kommunikationsvorgangs als solchem verstanden. Genau genommen muss zwischen der Kryptografie, die sich mit der Verschlüsselung von Daten beschäftigt, und der Kryptoanalyse, die sich mit derer Entschlüsselung beschäftigt, unterschieden werden. Der Oberbegriff für beide Disziplinen ist Kryptologie.
    Date
    5. 4.2013 10:22:37
  19. Schaar, P.: "Ubiquitous Computing" - : lückenhafter Datenschutz? (2006) 0.05
    0.05040811 = product of:
      0.10081622 = sum of:
        0.10081622 = sum of:
          0.070477605 = weight(_text_:z in 5078) [ClassicSimilarity], result of:
            0.070477605 = score(doc=5078,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.29484767 = fieldWeight in 5078, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5078)
          0.030338619 = weight(_text_:22 in 5078) [ClassicSimilarity], result of:
            0.030338619 = score(doc=5078,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.19345059 = fieldWeight in 5078, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5078)
      0.5 = coord(1/2)
    
    Abstract
    Die Miniaturisierung der Informations- und Kommunikationstechnik dient der Verbesserung unserer Lebens- und Arbeitsbedingungen. Der Einsatz von technischen Systemen muss transparent und unter Wahrung des Selbstbestimmungsrechts der Betroffenen erfolgen. Die Informations- und Kommunikationstechnik entwickelt sich permanent weiter: Die Rechenleistung und Vernetzungsdichte der Systeme steigt, die Übertragungsbandbreite und Speicherkapazität nimmt zu und die Komponenten werden immer kleiner. Besonders die Miniaturisierung hat zu Visionen über neue Einsatzfelder für IT-Systeme geführt. Die mit den Schlagworten "Pervasive Computing", "Ubiquitous Computing" und "Ambient Intelligence" verbundenen Konzepte führen zu miniaturisierten IT-Systemen, die unsere Alltagswelt durchdringen, ohne das sie noch als "Computer" erkannt werden. Trends, die diese Entwicklung vorantreiben, sind etwa - leistungsfähigere, kleinere Prozessoren und Speicherbausteine, - höhere Integration der Netze (UMTS, WiMax, GSM, WLAN, Bluetooth) mit neuen Diensten etwa zur spontanen Vernetzung von IT-Systemen, sowie - neue Sensoren, langlebige und sehr kleine Batterien. Auch sollen durch die Forschung in der Nanotechnologie neue Produkte - etwa in der Medizin - entwickelt werden, die durch eindeutige Kennungen in den Nano-Partikeln spätere Rückverfolgung oder Identifizierung der "Träger" ermöglichen könnten. Bereits heute wird durch neue IT-Systeme der Einsatz von Informationstechnik weitgehend unsichtbar, z. B. wenn Mikroprozessoren in Alltagsgegenstände integriert sind. Mit der Radio Frequency Identification (RFID) rückt die Vision dieser allgegenwärtigen Datenverarbeitung näher. Dies bringt neue Gefahren für die Persönlichkeitsrechte der Bürgerinnen und Bürger mit sich. Daher sind Konzepte zum Schutz der Privatsphäre gefragt, die bereits beim Systementwurf greifen und nicht erst nachträglich "aufgepfropft" werden. Nachträglicher Datenschutz ist nicht nur weniger effektiv, sondern auch teuerer als eingebauter (System-) Datenschutz.
    Source
    Wechselwirkung. 28(2006) Nr.136, S.22-25
  20. Zheng, R.; Li, J.; Chen, H.; Huang, Z.: ¬A framework for authorship identification of online messages : writing-style features and classification techniques (2006) 0.05
    0.05040811 = product of:
      0.10081622 = sum of:
        0.10081622 = sum of:
          0.070477605 = weight(_text_:z in 5276) [ClassicSimilarity], result of:
            0.070477605 = score(doc=5276,freq=2.0), product of:
              0.23903055 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04478481 = queryNorm
              0.29484767 = fieldWeight in 5276, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5276)
          0.030338619 = weight(_text_:22 in 5276) [ClassicSimilarity], result of:
            0.030338619 = score(doc=5276,freq=2.0), product of:
              0.15682878 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04478481 = queryNorm
              0.19345059 = fieldWeight in 5276, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5276)
      0.5 = coord(1/2)
    
    Date
    22. 7.2006 16:14:37

Languages

Types

  • a 1217
  • m 189
  • el 70
  • s 65
  • b 26
  • x 16
  • i 13
  • n 3
  • r 2
  • More… Less…

Themes

Subjects

Classifications