Search (237 results, page 1 of 12)

  • × type_ss:"el"
  1. Atran, S.; Medin, D.L.; Ross, N.: Evolution and devolution of knowledge : a tale of two biologies (2004) 0.11
    0.111152194 = product of:
      0.16672829 = sum of:
        0.14932938 = weight(_text_:d.l in 479) [ClassicSimilarity], result of:
          0.14932938 = score(doc=479,freq=2.0), product of:
            0.31052554 = queryWeight, product of:
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.0428061 = queryNorm
            0.48089242 = fieldWeight in 479, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.046875 = fieldNorm(doc=479)
        0.017398907 = product of:
          0.034797814 = sum of:
            0.034797814 = weight(_text_:22 in 479) [ClassicSimilarity], result of:
              0.034797814 = score(doc=479,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.23214069 = fieldWeight in 479, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=479)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    23. 1.2022 10:22:18
  2. Bechhofer, S.; Harmelen, F. van; Hendler, J.; Horrocks, I.; McGuinness, D.L.; Patel-Schneider, P.F.; Stein, L.A.: OWL Web Ontology Language Reference (2004) 0.06
    0.058072533 = product of:
      0.1742176 = sum of:
        0.1742176 = weight(_text_:d.l in 4684) [ClassicSimilarity], result of:
          0.1742176 = score(doc=4684,freq=2.0), product of:
            0.31052554 = queryWeight, product of:
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.0428061 = queryNorm
            0.5610411 = fieldWeight in 4684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4684)
      0.33333334 = coord(1/3)
    
  3. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.05
    0.053992204 = product of:
      0.0809883 = sum of:
        0.042492148 = product of:
          0.16996859 = sum of:
            0.16996859 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.16996859 = score(doc=5669,freq=2.0), product of:
                0.3629106 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0428061 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.25 = coord(1/4)
        0.03849616 = product of:
          0.07699232 = sum of:
            0.07699232 = weight(_text_:da in 5669) [ClassicSimilarity], result of:
              0.07699232 = score(doc=5669,freq=4.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.37485722 = fieldWeight in 5669, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  4. OWL Web Ontology Language Overview (2004) 0.05
    0.04977646 = product of:
      0.14932938 = sum of:
        0.14932938 = weight(_text_:d.l in 4682) [ClassicSimilarity], result of:
          0.14932938 = score(doc=4682,freq=2.0), product of:
            0.31052554 = queryWeight, product of:
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.0428061 = queryNorm
            0.48089242 = fieldWeight in 4682, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.046875 = fieldNorm(doc=4682)
      0.33333334 = coord(1/3)
    
    Editor
    McGuinness, D.L. u. F. van Harmelen
  5. Halpin, H.; Hayes, P.J.; McCusker, J.P.; McGuinness, D.L.; Thompson, H.S.: When owl:sameAs isn't the same : an analysis of identity in linked data (2010) 0.05
    0.04977646 = product of:
      0.14932938 = sum of:
        0.14932938 = weight(_text_:d.l in 4703) [ClassicSimilarity], result of:
          0.14932938 = score(doc=4703,freq=2.0), product of:
            0.31052554 = queryWeight, product of:
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.0428061 = queryNorm
            0.48089242 = fieldWeight in 4703, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.046875 = fieldNorm(doc=4703)
      0.33333334 = coord(1/3)
    
  6. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.04
    0.044501316 = product of:
      0.13350394 = sum of:
        0.13350394 = sum of:
          0.08710686 = weight(_text_:da in 1490) [ClassicSimilarity], result of:
            0.08710686 = score(doc=1490,freq=2.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.42410251 = fieldWeight in 1490, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0625 = fieldNorm(doc=1490)
          0.046397086 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
            0.046397086 = score(doc=1490,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.30952093 = fieldWeight in 1490, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1490)
      0.33333334 = coord(1/3)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  7. Kluge, A.; Singer, W.: ¬Das Gehirn braucht so viel Strom wie die Glühbirne (2012) 0.04
    0.0423962 = product of:
      0.1271886 = sum of:
        0.1271886 = sum of:
          0.09239078 = weight(_text_:da in 4167) [ClassicSimilarity], result of:
            0.09239078 = score(doc=4167,freq=4.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.44982868 = fieldWeight in 4167, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.046875 = fieldNorm(doc=4167)
          0.034797814 = weight(_text_:22 in 4167) [ClassicSimilarity], result of:
            0.034797814 = score(doc=4167,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.23214069 = fieldWeight in 4167, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4167)
      0.33333334 = coord(1/3)
    
    Content
    "Da gibt's im Gehirn nicht eine Trennung zwischen Rechenwerk und Programmspeicher und Datenspeicher oder so was, sondern es gibt nur Neurone und deren Verschaltung. Und die Art und Weise, wie die verschaltet sind, nennen wir funktionelle Architektur, und da liegen die ganzen Geheimnisse, denn die Freiheitsgrade sind überschaubar, es kann nur variiert werden, wer mit wem kommuniziert, wie stark oder schwach die Kopplungen sind und ob sie hemmend oder erregend sind, wobei die allermeisten erregend sind. Und mit diesem Lego-Baukasten hat die Evolution die Großhirnrinde zusammengebastelt."
    Date
    22. 2.2018 18:10:21
  8. OWL Web Ontology Language Guide (2004) 0.04
    0.04148038 = product of:
      0.12444114 = sum of:
        0.12444114 = weight(_text_:d.l in 4687) [ClassicSimilarity], result of:
          0.12444114 = score(doc=4687,freq=2.0), product of:
            0.31052554 = queryWeight, product of:
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.0428061 = queryNorm
            0.40074366 = fieldWeight in 4687, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2542357 = idf(docFreq=84, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4687)
      0.33333334 = coord(1/3)
    
    Editor
    Smith, M.K., C. Welty u. D.L. Mc Guinness
  9. Schneider, R.: Bibliothek 1.0, 2.0 oder 3.0? (2008) 0.04
    0.038938653 = product of:
      0.116815954 = sum of:
        0.116815954 = sum of:
          0.0762185 = weight(_text_:da in 6122) [ClassicSimilarity], result of:
            0.0762185 = score(doc=6122,freq=2.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.3710897 = fieldWeight in 6122, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0546875 = fieldNorm(doc=6122)
          0.04059745 = weight(_text_:22 in 6122) [ClassicSimilarity], result of:
            0.04059745 = score(doc=6122,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.2708308 = fieldWeight in 6122, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=6122)
      0.33333334 = coord(1/3)
    
    Abstract
    Noch ist nicht entschieden mit welcher Vehemenz das sogenannte Web 2.0 die Bibliotheken verändern wird. Allerdings wird hier und da bereits mit Bezugnahme auf das sogenannte Semantic Web von einer dritten und mancherorts von einer vierten Generation des Web gesprochen. Der Vortrag hinterfragt kritisch, welche Konzepte sich hinter diesen Bezeichnungen verbergen und geht der Frage nach, welche Herausforderungen eine Übernahme dieser Konzepte für die Bibliothekswelt mit sich bringen würde. Vgl. insbes. Folie 22 mit einer Darstellung von der Entwicklung vom Web 1.0 zum Web 4.0
  10. Wesch, M.: Information R/evolution (2006) 0.04
    0.038938653 = product of:
      0.116815954 = sum of:
        0.116815954 = sum of:
          0.0762185 = weight(_text_:da in 1267) [ClassicSimilarity], result of:
            0.0762185 = score(doc=1267,freq=2.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.3710897 = fieldWeight in 1267, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1267)
          0.04059745 = weight(_text_:22 in 1267) [ClassicSimilarity], result of:
            0.04059745 = score(doc=1267,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.2708308 = fieldWeight in 1267, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1267)
      0.33333334 = coord(1/3)
    
    Abstract
    This video explores the changes in the way we find, store, create, critique, and share information. This video was created as a conversation starter, and works especially well when brainstorming with people about the near future and the skills needed in order to harness, evaluate, and create information effectively. Ein sehr schöner Kurzfilm von Michael Wesch, dem wir auch den Beitrag zu Web 2.0 (The Machine is Us/ing Us) verdanken (vor einiger Zeit hier besprochen), thematisiert die Veränderung der Handhabung von Information (insbesondere die Strukturierung und Ordnung, aber auch die Generierung und Speicherung), die auf ihre digitale Gestalt zurückzuführen ist. Kernaussage: Da die Informationen keine physikalischen Beschränkungen mehr unterworfen sind, wird die Ordnung der Informationen vielfältiger, flexibler und für jedermann einfacher zugänglich.
    Date
    5. 1.2008 19:22:48
  11. Taglinger, H.: Ausgevogelt, jetzt wird es ernst (2018) 0.04
    0.03533017 = product of:
      0.1059905 = sum of:
        0.1059905 = sum of:
          0.07699232 = weight(_text_:da in 4281) [ClassicSimilarity], result of:
            0.07699232 = score(doc=4281,freq=4.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.37485722 = fieldWeight in 4281, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4281)
          0.02899818 = weight(_text_:22 in 4281) [ClassicSimilarity], result of:
            0.02899818 = score(doc=4281,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.19345059 = fieldWeight in 4281, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4281)
      0.33333334 = coord(1/3)
    
    Abstract
    Das kennt der Sammler: Da fängt man an, sich für eine Sache zu interessieren und alles darüber zusammenzutragen, was man kriegen kann, und dann hat man sich verhoben, weil man die Sache ein wenig zu groß angegangen ist. So ist es zum Beispiel blöd, in der Wüste zu sitzen und sich zu überlegen, alle Kiefernnadeln weltweit zusammentragen zu wollen, weil das ja von dort aus gesehen nicht so viele sein können. Und dann beginnt man nach einiger Zeit diese Website über die Kiefernwälder weltweit zu finden und sich am Kopf zu kratzen. Also beschließt man nur noch "herausragende Kiefernnadeln" zu sammeln, was immer das sein mag. Aber auf jeden Fall hat man es satt, jeden Tag mehrere Tausend Säcke Bioabfall von schwitzenden Postboten vor die Tore gestellt zu bekommen. So ähnlich muss es der Library of Congress gehen, wenn sie im Dezember 2017 genau das beschließt. Also, nicht wirklich das Sammeln von Kiefernnadeln einzustellen. Vielmehr handelt es sich ja um die umfangreichste Bibliothek der Welt, die alle möglichen Inhalte in Büchern, auf Tonbändern und eben auch Tweets sammelt. Das ist ihr jetzt zu viel geworden. Kann man verstehen, kommen wir ja schon mit dem Lesen von Tweets eines kleinhändigen Präsidenten kaum noch nach, dann muss es da draußen ja auch noch eine ganze Menge anderes Zeugs geben. Die armen Bibliothekare in den dortigen Kellern weinen ja schon, wenn sie wieder tonnenweise kommentierte Retweets und diesen Mist auf den Tisch bekamen, alleine das Ausdrucken von bis zu 280 Zeichen und Bildern dauert ja ewig ... ganz zu schweigen vom Einsortieren.
    Date
    22. 1.2018 11:38:55
  12. Knoll, A.: Kompetenzprofil von Information Professionals in Unternehmen (2016) 0.03
    0.033375986 = product of:
      0.10012795 = sum of:
        0.10012795 = sum of:
          0.06533014 = weight(_text_:da in 3069) [ClassicSimilarity], result of:
            0.06533014 = score(doc=3069,freq=2.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.31807688 = fieldWeight in 3069, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.046875 = fieldNorm(doc=3069)
          0.034797814 = weight(_text_:22 in 3069) [ClassicSimilarity], result of:
            0.034797814 = score(doc=3069,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.23214069 = fieldWeight in 3069, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3069)
      0.33333334 = coord(1/3)
    
    Abstract
    Zielsetzung - Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der vorliegenden Arbeit eine Begriffsbestimmung unternommen. Methode - Mit Hilfe dreier Methoden - einer Auswertung von relevanter Fachliteratur, der Untersuchung von einschlägigen Stellenausschreibungen und dem Führen von Experteninterviews - wird ein Kompetenzprofil für Information Professionals erstellt. Ergebnisse - Die 16 wichtigsten Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen sind IT-Kenntnisse, Sprachkenntnisse, Quellenkenntnisse, Recherchekenntnisse, Projektmanagement, Darstellungskompetenz, Problemlösungskompetenz, selbständiges Arbeiten, Kommunikationsfähigkeit, Teamfähigkeit, Servicementalität, Interkulturelle Kompetenz, Analytische Fähigkeiten, Eigenmarketing, Veränderungsbereitschaft und Stressresistenz. Schlussfolgerung - Die Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst. Ein Kompetenzrad kann als Visualisierung dienen.
    Date
    28. 7.2016 16:22:54
  13. cis: Nationalbibliothek will das deutsche Internet kopieren (2008) 0.03
    0.028768633 = product of:
      0.086305894 = sum of:
        0.086305894 = sum of:
          0.06600717 = weight(_text_:da in 4609) [ClassicSimilarity], result of:
            0.06600717 = score(doc=4609,freq=6.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.32137313 = fieldWeight in 4609, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4609)
          0.020298725 = weight(_text_:22 in 4609) [ClassicSimilarity], result of:
            0.020298725 = score(doc=4609,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.1354154 = fieldWeight in 4609, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4609)
      0.33333334 = coord(1/3)
    
    Content
    "Ab heute müsste kopiert und abgespeichert werden - eigentlich. Fast jede Webseite, samt Bildern, Texten und sogar Audiodateien soll die Deutsche Nationalbibliothek archivieren, im Auftrag der Bundesregierung. Das Kopieren und Abspeichern sollen die Bundes-Bibliothekare aber nicht übernehmen. Das sollen die Seitenbetreiber machen. Am Donnerstag wurde die Verordnung über die Pflichtablieferung von Medienwerken an die Deutsche Nationalbibliothek im Bundesgesetzblatt veröffentlicht - damit ist sie rechtskräftig. Auf den Seiten der Deutschen Nationalbibliothek ist auch nachzulesen, was da von nun an alles gesammelt werden soll: "Alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden." Mit anderen Worten: Die Nationalbibliothek möchte in regelmäßigen Abständen vollständige Kopien des deutschen Internets bekommen, einschließlich multimedialer Elemente. Ausgenommen sind lediglich "zeitlich begrenzte Vorabveröffentlichungen, reine Software- oder Anwendungstools und auch Fernseh- und Hörfunkproduktionen" Der Branchenverband Bitkom hatte schon im vergangenen Jahr gegen das Gesetz protestiert, der Widerstand verpuffte jedoch ohne Konsequenz. Deutsche Firmen werde die tatsächliche Umsetzung der Regelung 115 Millionen Euro jährlich kosten, schätzte der Verband damals. Was an Kosten auf den Steuerzahler zukommt, ist noch vollkommen unklar. Die Regelung ist das Ergebnis eines Gesetzes, das schon aus dem Jahr 2006 stammt: Dem Gesetz über die Deutsche Nationalbibliothek ( DNBG). Jetzt ist das Gesetz samt erklärender Verordnung da - aber wie das alles genau funktionieren soll, wer die riesigen Mengen Speicherplatz zur Verfügung stehen wird, das scheint noch niemand so recht zu wissen.
    Ablieferung als PDF oder Zip-Archiv Geschehen soll die Ablieferung am liebsten in PDF-Form, über ein Webformular. Bei Bedarf, nämlich "wenn Ihre Netzpublikation aus mehreren Dateien besteht, z. B. einer oder mehreren HTML-Seiten mit Bildern", darf man sie auch auch als Zip-Archiv abgeben. Wie es sich mit privaten Webseiten genau verhält, ist derzeit nicht ganz klar. "Lediglich privaten Zwecken dienende Websites" sind beispielsweise freigestellt - aber was genau ist im Netz lediglich privat? Ein Blog? Auch, wenn darin das Weltgeschehen oder die deutsche Politik kommentiert wird? Auch dann, wenn neben den Blog-Einträgen Google-Anzeigen erscheinen? Da es sich um eine Pflichtabgabe handelt, ist sie, zumindest theoretisch, auch strafbewehrt. Nach einer Abmahnung kann es heise.de zufolge bis zu 10.000 Euro Strafe kosten, wenn man seine Netz-Inhalte nicht bei der DNB abliefert. Eine Erklärseite der DNB schränkt allerdings ein: "Die Entwicklung geeigneter Verfahren für den Massenbetrieb der Sammlung, Erschließung und Archivierung von Netzpublikationen erfolgt stufenweise." Im Klartext: Man weiß bei der DNB selbst noch nicht so genau, wie das alles funktionieren und organisiert werden soll. So lange das nicht abschließend geklärt ist, wird die Bibliothek "keine Ordnungswidrigkeitsverfahren anstrengen". Außerdem werde man "abzuliefernde Netzpublikationen gegebenenfalls nicht gleich übernehmen, sondern vormerken und erst anfordern, wenn der Stand der Technik und der Absprachen dies zulässt." Zudem hat die Bibliothek das Recht, von der Übernahme von Inhalten abzusehen, unter anderem dann, wenn "technische Verfahren die Sammlung und Archivierung nicht oder nur mit beträchtlichem Aufwand erlauben". Bleibt abzuwarten, wie weit die Nationalbibliothek diese Ausnahmen ausdehnen wird - sonst kommt ein Speicherplatzbedarf auf die Einrichtung zu, der den Steuerzahler beträchtliche Summen kosten dürfte."
    Date
    24.10.2008 14:19:22
  14. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.03
    0.028328098 = product of:
      0.084984295 = sum of:
        0.084984295 = product of:
          0.33993718 = sum of:
            0.33993718 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.33993718 = score(doc=1826,freq=2.0), product of:
                0.3629106 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0428061 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.25 = coord(1/4)
      0.33333334 = coord(1/3)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  15. Beckmann, R.; Hinrichs, I.; Janßen, M.; Milmeister, G.; Schäuble, P.: ¬Der Digitale Assistent DA-3 : Eine Plattform für die Inhaltserschließung (2019) 0.02
    0.02434711 = product of:
      0.07304133 = sum of:
        0.07304133 = product of:
          0.14608265 = sum of:
            0.14608265 = weight(_text_:da in 5408) [ClassicSimilarity], result of:
              0.14608265 = score(doc=5408,freq=10.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.7112416 = fieldWeight in 5408, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5408)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der "Digitale Assistent" DA-3 ist ein webbasiertes Tool zur maschinellen Unterstützung der intellektuellen verbalen und klassifikatorischen Inhaltserschließung. Im Frühjahr 2016 wurde einer breiteren Fachöffentlichkeit die zunächst für den Einsatz im IBS|BW-Konsortium konzipierte Vorgängerversion DA-2 vorgestellt. Die Community nahm die Entwicklung vor dem Hintergrund der strategischen Diskussionen um zukunftsfähige Verfahren der Inhaltserschließung mit großem Interesse auf. Inzwischen wird das Tool in einem auf drei Jahre angelegten Kooperationsprojekt zwischen der Firma Eurospider Information Technology, dem IBS|BW-Konsortium, der Staatsbibliothek zu Berlin und den beiden Verbundzentralen VZG und BSZ zu einem zentralen und leistungsstarken Service weiterentwickelt. Die ersten Anwenderbibliotheken in SWB und GBV setzen den DA-3 während dieser Projektphase bereits erfolgreich ein, am Ende ist die Überführung in den Routinebetrieb vorgesehen. Der Beitrag beschreibt den derzeitigen Stand und Nutzen des Projekts im Kontext der aktuellen Rahmenbedingungen, stellt ausführlich die Funktionalitäten des DA-3 vor, gibt einen kleinen Einblick hinter die Kulissen der Projektpartner und einen Ausblick auf kommende Entwicklungsschritte.
  16. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.02
    0.02266248 = product of:
      0.067987435 = sum of:
        0.067987435 = product of:
          0.27194974 = sum of:
            0.27194974 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.27194974 = score(doc=230,freq=2.0), product of:
                0.3629106 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0428061 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.25 = coord(1/4)
      0.33333334 = coord(1/3)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  17. Freyberg, L.: ¬Die Lesbarkeit der Welt : Rezension zu 'The Concept of Information in Library and Information Science. A Field in Search of Its Boundaries: 8 Short Comments Concerning Information'. In: Cybernetics and Human Knowing. Vol. 22 (2015), 1, 57-80. Kurzartikel von Luciano Floridi, Søren Brier, Torkild Thellefsen, Martin Thellefsen, Bent Sørensen, Birger Hjørland, Brenda Dervin, Ken Herold, Per Hasle und Michael Buckland (2016) 0.02
    0.022250658 = product of:
      0.06675197 = sum of:
        0.06675197 = sum of:
          0.04355343 = weight(_text_:da in 3335) [ClassicSimilarity], result of:
            0.04355343 = score(doc=3335,freq=2.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.21205126 = fieldWeight in 3335, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.03125 = fieldNorm(doc=3335)
          0.023198543 = weight(_text_:22 in 3335) [ClassicSimilarity], result of:
            0.023198543 = score(doc=3335,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.15476047 = fieldWeight in 3335, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3335)
      0.33333334 = coord(1/3)
    
    Abstract
    Es ist wieder an der Zeit den Begriff "Information" zu aktualisieren beziehungsweise einen Bericht zum Status Quo zu liefern. Information ist der zentrale Gegenstand der Informationswissenschaft und stellt einen der wichtigsten Forschungsgegenstände der Bibliotheks- und Informationswissenschaft dar. Erstaunlicherweise findet jedoch ein stetiger Diskurs, der mit der kritischen Auseinandersetzung und der damit verbundenen Aktualisierung von Konzepten in den Geisteswissensschaften vergleichbar ist, zumindest im deutschsprachigen Raum1 nicht konstant statt. Im Sinne einer theoretischen Grundlagenforschung und zur Erarbeitung einer gemeinsamen begrifflichen Matrix wäre dies aber sicherlich wünschenswert. Bereits im letzten Jahr erschienen in dem von Søren Brier (Siehe "The foundation of LIS in information science and semiotics"2 sowie "Semiotics in Information Science. An Interview with Søren Brier on the application of semiotic theories and the epistemological problem of a transdisciplinary Information Science"3) herausgegebenen Journal "Cybernetics and Human Knowing" acht lesenswerte Stellungnahmen von namhaften Philosophen beziehungsweise Bibliotheks- und Informationswissenschaftlern zum Begriff der Information. Unglücklicherweise ist das Journal "Cybernetics & Human Knowing" in Deutschland schwer zugänglich, da es sich nicht um ein Open-Access-Journal handelt und lediglich von acht deutschen Bibliotheken abonniert wird.4 Aufgrund der schlechten Verfügbarkeit scheint es sinnvoll hier eine ausführliche Besprechung dieser acht Kurzartikel anzubieten.
  18. Hinrichs, I.; Milmeister, G.; Schäuble, P.; Steenweg, H.: Computerunterstützte Sacherschließung mit dem Digitalen Assistenten (DA-2) (2016) 0.02
    0.02200239 = product of:
      0.06600717 = sum of:
        0.06600717 = product of:
          0.13201433 = sum of:
            0.13201433 = weight(_text_:da in 3563) [ClassicSimilarity], result of:
              0.13201433 = score(doc=3563,freq=6.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.64274627 = fieldWeight in 3563, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3563)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Wir beschreiben den Digitalen Assistenten DA-2, den wir zur Unterstützung der Sacherschliessung im IBS-Verbund implementiert haben. Diese webbasierte Anwendung ist eine vollständige Neuimplementierung, welche die Erkenntnisse des Vorgängersystems bei der Zentralbibliothek Zürich berücksichtigt. Wir stellen Überlegungen zur Zukunft der Sacherschliessung an und geben eine Übersicht über Projekte mit ähnlichen Zielsetzungen, die Sacherschließung mit Computerunterstützung effizienter und besser zu gestalten.
    Object
    DA-2
  19. Foerster, H. von; Müller, A.; Müller, K.H.: Rück- und Vorschauen : Heinz von Foerster im Gespräch mit Albert Müller und Karl H. Müller (2001) 0.02
    0.0211981 = product of:
      0.0635943 = sum of:
        0.0635943 = sum of:
          0.04619539 = weight(_text_:da in 5988) [ClassicSimilarity], result of:
            0.04619539 = score(doc=5988,freq=4.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.22491434 = fieldWeight in 5988, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0234375 = fieldNorm(doc=5988)
          0.017398907 = weight(_text_:22 in 5988) [ClassicSimilarity], result of:
            0.017398907 = score(doc=5988,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.116070345 = fieldWeight in 5988, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=5988)
      0.33333334 = coord(1/3)
    
    Content
    Da braucht also der Mensch, der sich dafür interessiert, solche Antworten zu finden, nicht erst indirekt über den Karl Müller, den er auf irgendeiner Karteikarte findet, dort hineinzugehen, sondern durch direktes Ansprechen der semantischen Struktur seines Problems, sich mit der semantischen Struktur des Systems in Verbindung setzen, das mir dann weiterhilft in diejenigen Bereiche zu gehen, in denen ich dann vielleicht Antworten für meine Probleme finde. Also mit solchen und ähnlichen Gedanken haben wir uns beschäftigt, und Paul Weston hat hervorragende Arbeiten dazu geschrieben, der hat durch diese Sache durchgeschaut. Der Projektvorschlag, den ich heute noch habe, für dieses unerhörte Riesenprojekt, das waren mehrere Millionen Dollar, wurde überhaupt nicht verstanden. Das brauchen wir nicht, wir haben ja die Bücher, wir haben ja die Karteikarten. Da waren eben Schwierigkeiten, wo mir meine Freunde richtig vorwerfen, Heinz, du hast unseren Fall nicht richtig vorgetragen, sodaß die Leute, die imstande gewesen wären, uns finanziell zu unterstützen, nicht verstanden haben, wovon du redest. Trotz meiner intensiven Bemühungen ist es in vielen Fällen nicht gelungen, eine Überzeugung, ein Verständnis zu erreichen. Mein Gefühl damals war, daß das Verständnis einfach blockiert war, weil schon bestimmte Verständnisdirektionen so festgefroren waren. Um etwas zu erreichen, hätte man viel mehr Zeit gebraucht und vielmehr miteinander sprechen sollen, um ein Verständnis durchzusetzen.
    Date
    10. 9.2006 17:22:54
  20. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.02
    0.020531286 = product of:
      0.061593857 = sum of:
        0.061593857 = product of:
          0.12318771 = sum of:
            0.12318771 = weight(_text_:da in 4499) [ClassicSimilarity], result of:
              0.12318771 = score(doc=4499,freq=4.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.59977156 = fieldWeight in 4499, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4499)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Diplomarbeit zur Erlangung des Grades eines Diplom-Wirtschaftsinformatikers (FH) der Hochschule Wismar. Vgl.: http://www.wi.hs-wismar.de/~cleve/vorl/projects/da/DA-FS-Haas.pdf.

Years

Languages

  • d 150
  • e 76
  • el 2
  • a 1
  • nl 1
  • More… Less…

Types

  • a 103
  • i 16
  • m 7
  • n 4
  • r 4
  • s 3
  • x 3
  • b 2
  • p 1
  • More… Less…