Search (374 results, page 1 of 19)

  • × language_ss:"d"
  • × type_ss:"el"
  1. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.23
    0.23245418 = product of:
      0.5423931 = sum of:
        0.040343024 = product of:
          0.121029064 = sum of:
            0.121029064 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.121029064 = score(doc=4388,freq=2.0), product of:
                0.25841674 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.030480823 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.017933775 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
          0.017933775 = score(doc=4388,freq=2.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.18028519 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.121029064 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.121029064 = score(doc=4388,freq=2.0), product of:
            0.25841674 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030480823 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.121029064 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.121029064 = score(doc=4388,freq=2.0), product of:
            0.25841674 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030480823 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.121029064 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.121029064 = score(doc=4388,freq=2.0), product of:
            0.25841674 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030480823 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.121029064 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.121029064 = score(doc=4388,freq=2.0), product of:
            0.25841674 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030480823 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.42857143 = coord(6/14)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  2. Svensson, L.: Linked data in der Deutschen Nationalbibliothek (und auch anderswo ...) (2013) 0.04
    0.035343986 = product of:
      0.12370394 = sum of:
        0.046279203 = weight(_text_:wide in 991) [ClassicSimilarity], result of:
          0.046279203 = score(doc=991,freq=2.0), product of:
            0.13505316 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.030480823 = queryNorm
            0.342674 = fieldWeight in 991, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=991)
        0.025107287 = weight(_text_:web in 991) [ClassicSimilarity], result of:
          0.025107287 = score(doc=991,freq=2.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.25239927 = fieldWeight in 991, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=991)
        0.039734546 = weight(_text_:bibliothek in 991) [ClassicSimilarity], result of:
          0.039734546 = score(doc=991,freq=2.0), product of:
            0.12513994 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.030480823 = queryNorm
            0.31752092 = fieldWeight in 991, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=991)
        0.012582912 = weight(_text_:information in 991) [ClassicSimilarity], result of:
          0.012582912 = score(doc=991,freq=6.0), product of:
            0.053508412 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030480823 = queryNorm
            0.23515764 = fieldWeight in 991, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=991)
      0.2857143 = coord(4/14)
    
    Abstract
    Das World Wide Web hat den Informations- austausch grundlegend verändert. Auch Archive, Bibliotheken und Museen stellen ihre Information ins WWW. Wir haben oft nur eigene Datensilos. Die Zukunft ist aber eher ein organisationsübergreifendes Netzwerk. Durch Linked Data können wir Information netzwerkartig wiederverwenden. Das Konzept basiert auf vier einfachen Prinzipen: - Use URIs as names for things - Use HTTP URIs so that people can look up those names. - When someone looks up a URI, provide useful information, using the standards (RDF*, SPARQL) - Include links to other URIs. so that they can discover more things.
    Footnote
    Präsentation im Rahmen eines Vortrags in der Bibliothek des Bundesarchivs im Juni 2013.
  3. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.04
    0.03506932 = product of:
      0.122742616 = sum of:
        0.039667886 = weight(_text_:wide in 4333) [ClassicSimilarity], result of:
          0.039667886 = score(doc=4333,freq=2.0), product of:
            0.13505316 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.030480823 = queryNorm
            0.29372054 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
        0.048121374 = weight(_text_:web in 4333) [ClassicSimilarity], result of:
          0.048121374 = score(doc=4333,freq=10.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.48375595 = fieldWeight in 4333, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
        0.0088062035 = weight(_text_:information in 4333) [ClassicSimilarity], result of:
          0.0088062035 = score(doc=4333,freq=4.0), product of:
            0.053508412 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030480823 = queryNorm
            0.16457605 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
        0.026147148 = weight(_text_:retrieval in 4333) [ClassicSimilarity], result of:
          0.026147148 = score(doc=4333,freq=4.0), product of:
            0.092201896 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.030480823 = queryNorm
            0.2835858 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=4333)
      0.2857143 = coord(4/14)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
    Theme
    Semantic Web
  4. Wätjen, H.-J.: Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web : das DFG-Projekt GERHARD (1998) 0.03
    0.028456159 = product of:
      0.13279541 = sum of:
        0.066113144 = weight(_text_:wide in 3066) [ClassicSimilarity], result of:
          0.066113144 = score(doc=3066,freq=2.0), product of:
            0.13505316 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.030480823 = queryNorm
            0.48953426 = fieldWeight in 3066, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.078125 = fieldNorm(doc=3066)
        0.03586755 = weight(_text_:web in 3066) [ClassicSimilarity], result of:
          0.03586755 = score(doc=3066,freq=2.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.36057037 = fieldWeight in 3066, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=3066)
        0.03081471 = weight(_text_:retrieval in 3066) [ClassicSimilarity], result of:
          0.03081471 = score(doc=3066,freq=2.0), product of:
            0.092201896 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.030480823 = queryNorm
            0.33420905 = fieldWeight in 3066, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=3066)
      0.21428572 = coord(3/14)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  5. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.03
    0.028454455 = product of:
      0.07967247 = sum of:
        0.037399244 = weight(_text_:wide in 3284) [ClassicSimilarity], result of:
          0.037399244 = score(doc=3284,freq=4.0), product of:
            0.13505316 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.030480823 = queryNorm
            0.2769224 = fieldWeight in 3284, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.02028975 = weight(_text_:web in 3284) [ClassicSimilarity], result of:
          0.02028975 = score(doc=3284,freq=4.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.2039694 = fieldWeight in 3284, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.004151284 = weight(_text_:information in 3284) [ClassicSimilarity], result of:
          0.004151284 = score(doc=3284,freq=2.0), product of:
            0.053508412 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030480823 = queryNorm
            0.0775819 = fieldWeight in 3284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.012325884 = weight(_text_:retrieval in 3284) [ClassicSimilarity], result of:
          0.012325884 = score(doc=3284,freq=2.0), product of:
            0.092201896 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.030480823 = queryNorm
            0.13368362 = fieldWeight in 3284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.005506308 = product of:
          0.016518923 = sum of:
            0.016518923 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.016518923 = score(doc=3284,freq=2.0), product of:
                0.10673865 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030480823 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.33333334 = coord(1/3)
      0.35714287 = coord(5/14)
    
    Abstract
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
    Date
    22. 1.2010 14:41:24
  6. Neudecker, C.: Zur Kuratierung digitalisierter Dokumente mit Künstlicher Intelligenz : das Qurator-Projekt (2020) 0.02
    0.02461575 = product of:
      0.1148735 = sum of:
        0.021520529 = weight(_text_:web in 47) [ClassicSimilarity], result of:
          0.021520529 = score(doc=47,freq=2.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.21634221 = fieldWeight in 47, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
        0.045187425 = weight(_text_:elektronische in 47) [ClassicSimilarity], result of:
          0.045187425 = score(doc=47,freq=2.0), product of:
            0.14414315 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.030480823 = queryNorm
            0.3134899 = fieldWeight in 47, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
        0.048165545 = weight(_text_:bibliothek in 47) [ClassicSimilarity], result of:
          0.048165545 = score(doc=47,freq=4.0), product of:
            0.12513994 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.030480823 = queryNorm
            0.38489348 = fieldWeight in 47, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Digitalisierung des kulturellen Erbes in Bibliotheken, Archiven und Museen hat in den letzten Jahrzehnten eine rasant zunehmende Verfügbarkeit kultureller Inhalte im Web bewirkt - so hat die Staatsbibliothek zu Berlin - Preußischer Kulturbesitz (SBB-PK) rund 170.000 Werke (Bücher, Zeitschriften, Zeitungen, Karten, Notenschriften etc.) aus ihrem reichhaltigen Bestand digitalisiert und über ein eigenes Online-Portal bereitgestellt (Stand Mai 2020). Noch deutlicher wird die immense Menge der durch die Digitalisierung entstandenen digitalen Kulturobjekte beim Blick auf die von Aggregatoren gebildeten Sammlungen - so beinhaltet die Deutsche Digitale Bibliothek etwa 33 Millionen Nachweise für Digitalisate aus Kultureinrichtungen (Stand Mai 2020), die europäische digitale Bibliothek Europeana weist knapp 60 Millionen digitalisierte Kulturobjekte nach (Stand Mai 2020).
    Theme
    Elektronische Dokumente
  7. Schneider, R.: Bibliothek 1.0, 2.0 oder 3.0? (2008) 0.02
    0.02375799 = product of:
      0.11087062 = sum of:
        0.06150004 = weight(_text_:web in 6122) [ClassicSimilarity], result of:
          0.06150004 = score(doc=6122,freq=12.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.6182494 = fieldWeight in 6122, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6122)
        0.039734546 = weight(_text_:bibliothek in 6122) [ClassicSimilarity], result of:
          0.039734546 = score(doc=6122,freq=2.0), product of:
            0.12513994 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.030480823 = queryNorm
            0.31752092 = fieldWeight in 6122, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6122)
        0.009636039 = product of:
          0.028908115 = sum of:
            0.028908115 = weight(_text_:22 in 6122) [ClassicSimilarity], result of:
              0.028908115 = score(doc=6122,freq=2.0), product of:
                0.10673865 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030480823 = queryNorm
                0.2708308 = fieldWeight in 6122, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6122)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Abstract
    Noch ist nicht entschieden mit welcher Vehemenz das sogenannte Web 2.0 die Bibliotheken verändern wird. Allerdings wird hier und da bereits mit Bezugnahme auf das sogenannte Semantic Web von einer dritten und mancherorts von einer vierten Generation des Web gesprochen. Der Vortrag hinterfragt kritisch, welche Konzepte sich hinter diesen Bezeichnungen verbergen und geht der Frage nach, welche Herausforderungen eine Übernahme dieser Konzepte für die Bibliothekswelt mit sich bringen würde. Vgl. insbes. Folie 22 mit einer Darstellung von der Entwicklung vom Web 1.0 zum Web 4.0
    Object
    Web 2.0
  8. Schmidt, A.P.: ¬Der Wissensnavigator : Das Lexikon der Zukunft (1999) 0.02
    0.021448148 = product of:
      0.07506852 = sum of:
        0.026445258 = weight(_text_:wide in 3315) [ClassicSimilarity], result of:
          0.026445258 = score(doc=3315,freq=2.0), product of:
            0.13505316 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.030480823 = queryNorm
            0.1958137 = fieldWeight in 3315, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.014347021 = weight(_text_:web in 3315) [ClassicSimilarity], result of:
          0.014347021 = score(doc=3315,freq=2.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.14422815 = fieldWeight in 3315, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.030124951 = weight(_text_:elektronische in 3315) [ClassicSimilarity], result of:
          0.030124951 = score(doc=3315,freq=2.0), product of:
            0.14414315 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.030480823 = queryNorm
            0.20899329 = fieldWeight in 3315, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.004151284 = weight(_text_:information in 3315) [ClassicSimilarity], result of:
          0.004151284 = score(doc=3315,freq=2.0), product of:
            0.053508412 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030480823 = queryNorm
            0.0775819 = fieldWeight in 3315, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
      0.2857143 = coord(4/14)
    
    Abstract
    Der Wissensnavigator ist ein Lexikon der Zukunft auf dem Weg zu einer interaktiven Enzyklopädie. Wenn Sie die elektronische Fassung online benutzen, können Sie von den einzelnen Artikeln über Hyperlinks zu Seiten im World Wide Web gelangen, die noch mehr Informationen zum jeweiligen Zukunftsbegriff enthalten. Bei der elektronischen Ausgabe des Wissensnavigators, die auch im Internet zugänglich ist handelt es sich um eine "lebende" Anwendung, die sich gerade auch durch die Mitwirkung der Nutzer weiterentwickelt. Sie sind herzlich eingeladen, zum Teilnehmer dieses Evolutionsprozesses zu werden - etwa, indem Sie neue Begriffe vorschlagen, die aufgenommen werden sollen, oder Experten benennen, die zur Bearbeitung neuer Begriffe in Frage kommen, oder auch sich selbst als Experte zu erkennen geben. Eine Redaktion, die aus dem Autor und einem Expertenteam im Verlag besteht, wird über die Aufnahme neuer Begriffe entscheiden
    Theme
    Information
  9. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.02
    0.02036072 = product of:
      0.09501669 = sum of:
        0.037274655 = weight(_text_:web in 4322) [ClassicSimilarity], result of:
          0.037274655 = score(doc=4322,freq=6.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.37471575 = fieldWeight in 4322, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.012453852 = weight(_text_:information in 4322) [ClassicSimilarity], result of:
          0.012453852 = score(doc=4322,freq=8.0), product of:
            0.053508412 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030480823 = queryNorm
            0.23274569 = fieldWeight in 4322, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.045288187 = weight(_text_:retrieval in 4322) [ClassicSimilarity], result of:
          0.045288187 = score(doc=4322,freq=12.0), product of:
            0.092201896 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.030480823 = queryNorm
            0.49118498 = fieldWeight in 4322, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.21428572 = coord(3/14)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
    Series
    Ontoprise "Semantics for the Web" - Whitepaper series
    Theme
    Semantic Web
  10. World Wide Web JAVA : die revolutionäre Programmiersprache nicht nur für das Internet (1996) 0.02
    0.017482406 = product of:
      0.12237683 = sum of:
        0.07933577 = weight(_text_:wide in 5222) [ClassicSimilarity], result of:
          0.07933577 = score(doc=5222,freq=2.0), product of:
            0.13505316 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.030480823 = queryNorm
            0.5874411 = fieldWeight in 5222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.09375 = fieldNorm(doc=5222)
        0.043041058 = weight(_text_:web in 5222) [ClassicSimilarity], result of:
          0.043041058 = score(doc=5222,freq=2.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.43268442 = fieldWeight in 5222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.09375 = fieldNorm(doc=5222)
      0.14285715 = coord(2/14)
    
  11. Brake, M.: ¬Das Semantische Web : Eine Vision in der Halbzeit (2005) 0.02
    0.017203834 = product of:
      0.12042683 = sum of:
        0.043487098 = weight(_text_:web in 4764) [ClassicSimilarity], result of:
          0.043487098 = score(doc=4764,freq=6.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.43716836 = fieldWeight in 4764, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4764)
        0.07693974 = weight(_text_:wien in 4764) [ClassicSimilarity], result of:
          0.07693974 = score(doc=4764,freq=2.0), product of:
            0.17413543 = queryWeight, product of:
              5.7129507 = idf(docFreq=396, maxDocs=44218)
              0.030480823 = queryNorm
            0.4418385 = fieldWeight in 4764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7129507 = idf(docFreq=396, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4764)
      0.14285715 = coord(2/14)
    
    Abstract
    Mit der Veröffentlichung der ersten Website 1989 am CERN gab Timothy J. Berners-Lee den Startschuss für das WorldWideWeb, diesem ständig expandierenden Konvolut aus digitalisierten Daten, vernetzten Maschinen und Menschen. Mittlerweile nimmt das Netz für sich in Anspruch, das Weltwissen zu repräsentieren und hat in seiner Gesamtheit längst die klassische Vorstellung von einer Enzyklopädie abgelöst und übertroffen. Andererseits ist das Netz trotz geballter Wissensansammlung und Rechenpower immer noch dumm. Seit fast einer Dekade ist nun das "verständige" Internet in der Diskussion, die Semantic Web Days in München und die Semantics in Wien zogen eine Zwischenbilanz und zeigten ein mittlerweile weites Spektrum von Praxisanwendungen.
    Theme
    Semantic Web
  12. Bohne-Lang, A.: Semantische Metadaten für den Webauftritt einer Bibliothek (2016) 0.02
    0.017080726 = product of:
      0.07971005 = sum of:
        0.02536219 = weight(_text_:web in 3337) [ClassicSimilarity], result of:
          0.02536219 = score(doc=3337,freq=4.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.25496176 = fieldWeight in 3337, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.049158752 = weight(_text_:bibliothek in 3337) [ClassicSimilarity], result of:
          0.049158752 = score(doc=3337,freq=6.0), product of:
            0.12513994 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.030480823 = queryNorm
            0.39283025 = fieldWeight in 3337, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.005189105 = weight(_text_:information in 3337) [ClassicSimilarity], result of:
          0.005189105 = score(doc=3337,freq=2.0), product of:
            0.053508412 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030480823 = queryNorm
            0.09697737 = fieldWeight in 3337, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
      0.21428572 = coord(3/14)
    
    Abstract
    Das Semantic Web ist schon seit über 10 Jahren viel beachtet und hat mit der Verfügbarkeit von Resource Description Framework (RDF) und den entsprechenden Ontologien einen großen Sprung in die Praxis gemacht. Vertreter kleiner Bibliotheken und Bibliothekare mit geringer Technik-Affinität stehen aber im Alltag vor großen Hürden, z.B. bei der Frage, wie man diese Technik konkret in den eigenen Webauftritt einbinden kann: man kommt sich vor wie Don Quijote, der versucht die Windmühlen zu bezwingen. RDF mit seinen Ontologien ist fast unverständlich komplex für Nicht-Informatiker und somit für den praktischen Einsatz auf Bibliotheksseiten in der Breite nicht direkt zu gebrauchen. Mit Schema.org wurde ursprünglich von den drei größten Suchmaschinen der Welt Google, Bing und Yahoo eine einfach und effektive semantische Beschreibung von Entitäten entwickelt. Aktuell wird Schema.org durch Google, Microsoft, Yahoo und Yandex weiter gesponsert und von vielen weiteren Suchmaschinen verstanden. Vor diesem Hintergrund hat die Bibliothek der Medizinischen Fakultät Mannheim auf ihrer Homepage (http://www.umm.uni-heidelberg.de/bibl/) verschiedene maschinenlesbare semantische Metadaten eingebettet. Sehr interessant und zukunftsweisend ist die neueste Entwicklung von Schema.org, bei der man eine 'Library' (https://schema.org/Library) mit Öffnungszeiten und vielem mehr modellieren kann. Ferner haben wir noch semantische Metadaten im Open Graph- und Dublin Core-Format eingebettet, um alte Standards und Facebook-konforme Informationen maschinenlesbar zur Verfügung zu stellen.
    Source
    GMS Medizin - Bibliothek - Information. 16(2016) Nr.3, 11 S. [http://www.egms.de/static/pdf/journals/mbi/2017-16/mbi000372.pdf]
    Theme
    Semantic Web
  13. Weller, K.: Ontologien: Stand und Entwicklung der Semantik für WorldWideWeb (2009) 0.02
    0.016788604 = product of:
      0.07834682 = sum of:
        0.033056572 = weight(_text_:wide in 4425) [ClassicSimilarity], result of:
          0.033056572 = score(doc=4425,freq=2.0), product of:
            0.13505316 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.030480823 = queryNorm
            0.24476713 = fieldWeight in 4425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
        0.04010114 = weight(_text_:web in 4425) [ClassicSimilarity], result of:
          0.04010114 = score(doc=4425,freq=10.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.40312994 = fieldWeight in 4425, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
        0.005189105 = weight(_text_:information in 4425) [ClassicSimilarity], result of:
          0.005189105 = score(doc=4425,freq=2.0), product of:
            0.053508412 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030480823 = queryNorm
            0.09697737 = fieldWeight in 4425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Idee zu einem semantischen Web wurde maßgeblich geprägt (wenn auch nicht initiiert) durch eine Veröffentlichung von Tim Berners Lee, James Hendler und Ora Lassila im Jahre 2001. Darin skizzieren die Autoren ihre Version von einem erweiterten und verbesserten World Wide Web: Daten sollen so aufbereitet werden, dass nicht nur Menschen diese lesen können, sondern dass auch Computer in die Lage versetzt werden, diese zu verarbeiten und sinnvoll zu kombinieren. Sie beschreiben ein Szenario, in dem "Web agents" dem Nutzer bei der Durchführung komplexer Suchanfragen helfen, wie beispielsweise "finde einen Arzt, der eine bestimmte Behandlung anbietet, dessen Praxis in der Nähe meiner Wohnung liegt und dessen Öffnungszeiten mit meinem Terminkalender zusammenpassen". Die große Herausforderung liegt hierbei darin, dass Informationen, die über mehrere Webseiten verteilt sind, gesammelt und zu einer sinnvollen Antwort kombiniert werden müssen. Man spricht dabei vom Problem der Informationsintegration (Information Integration). Diese Vision der weltweiten Datenintegration in einem Semantic Web wurde seither vielfach diskutiert, erweitert und modifiziert, an der technischen Realisation arbeitet eine Vielzahl verschiedener Forschungseinrichtungen. Einigkeit besteht dahingehend, dass eine solche Idee nur mit der Hilfe neuer bedeutungstragender Metadaten verwirklicht werden kann. Benötigt werden also neue Ansätze zur Indexierung von Web Inhalten, die eine Suche über Wortbedeutungen und nicht über bloße Zeichenketten ermöglichen können. So soll z.B. erkannt werden, dass es sich bei "Heinrich Heine" um den Namen einer Person handelt und bei "Düsseldorf" um den Namen einer Stadt. Darüber hinaus sollen auch Verbindungen zwischen einzelnen Informationseinheiten festgehalten werden, beispielsweise dass Heinrich Heine in Düsseldorf wohnte. Wenn solche semantischen Relationen konsequent eingesetzt werden, können sie in vielen Fällen ausgenutzt werden, um neue Schlussfolgerungen zu ziehen.
  14. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.02
    0.015803045 = product of:
      0.055310655 = sum of:
        0.023139602 = weight(_text_:wide in 572) [ClassicSimilarity], result of:
          0.023139602 = score(doc=572,freq=2.0), product of:
            0.13505316 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.030480823 = queryNorm
            0.171337 = fieldWeight in 572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.017753532 = weight(_text_:web in 572) [ClassicSimilarity], result of:
          0.017753532 = score(doc=572,freq=4.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.17847323 = fieldWeight in 572, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.0036323736 = weight(_text_:information in 572) [ClassicSimilarity], result of:
          0.0036323736 = score(doc=572,freq=2.0), product of:
            0.053508412 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030480823 = queryNorm
            0.06788416 = fieldWeight in 572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.010785148 = weight(_text_:retrieval in 572) [ClassicSimilarity], result of:
          0.010785148 = score(doc=572,freq=2.0), product of:
            0.092201896 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.030480823 = queryNorm
            0.11697317 = fieldWeight in 572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
      0.2857143 = coord(4/14)
    
    Abstract
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
  15. Blenkle, M.: Elektronische Bibliothek (E-LIB) (o.J.) 0.01
    0.014630378 = product of:
      0.10241264 = sum of:
        0.05325389 = weight(_text_:elektronische in 2480) [ClassicSimilarity], result of:
          0.05325389 = score(doc=2480,freq=4.0), product of:
            0.14414315 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.030480823 = queryNorm
            0.3694514 = fieldWeight in 2480, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2480)
        0.049158752 = weight(_text_:bibliothek in 2480) [ClassicSimilarity], result of:
          0.049158752 = score(doc=2480,freq=6.0), product of:
            0.12513994 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.030480823 = queryNorm
            0.39283025 = fieldWeight in 2480, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2480)
      0.14285715 = coord(2/14)
    
    Abstract
    Die E-LIB der SuUB Bremen arbeitet bereits seit 2004 als einheitlicher Katalog elektronischer und gedruckter Medien auf Basis von selbst entwickelter Suchmaschinentechnologie. Alle wesentlichen Medien und Dienste der Bibliothek werden unter einer Suchoberfläche angeboten, um die übliche heterogene Nachweissituation der verschiedenen Medientypen soweit wie möglich aufzulösen. Das Projekt verfolgt das Ziel, alle lokalen Bestände vor Ort und alle für Bremer Nutzer im Zugriff extern verfügbaren Medien in einem einzigen Retrievalsystem zur Verfügung zu stellen und neu entwickelte Verfahren zur Unterstützung von assoziativen Suchprozessen anzubieten. In dem von der Bibliothek kontrollierten Suchraum der Bremer E-LIB finden sich derzeit ca. 60 Mio. Nachweise - zu über 90% elektronische Volltexte.
  16. Sigel, A.: Informationsintegration mit semantischen Wissenstechnologien (2006) 0.01
    0.014578147 = product of:
      0.102047026 = sum of:
        0.025107287 = weight(_text_:web in 5174) [ClassicSimilarity], result of:
          0.025107287 = score(doc=5174,freq=2.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.25239927 = fieldWeight in 5174, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5174)
        0.07693974 = weight(_text_:wien in 5174) [ClassicSimilarity], result of:
          0.07693974 = score(doc=5174,freq=2.0), product of:
            0.17413543 = queryWeight, product of:
              5.7129507 = idf(docFreq=396, maxDocs=44218)
              0.030480823 = queryNorm
            0.4418385 = fieldWeight in 5174, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7129507 = idf(docFreq=396, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5174)
      0.14285715 = coord(2/14)
    
    Content
    Tutorium auf der 10. Deutschen ISKO-Tagung (Wissensorganisation 2006): Kompatibilität und Heterogenität in der Wissensorganisation Universität Wien, Montag 03. Juli 2006.
    Theme
    Semantic Web
  17. Darnton, R.: Im Besitz des Wissens : Von der Gelehrtenrepublik des 18. Jahrhunderts zum digitalen Google-Monopol (2009) 0.01
    0.014446145 = product of:
      0.06741534 = sum of:
        0.039667886 = weight(_text_:wide in 2335) [ClassicSimilarity], result of:
          0.039667886 = score(doc=2335,freq=2.0), product of:
            0.13505316 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.030480823 = queryNorm
            0.29372054 = fieldWeight in 2335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
        0.021520529 = weight(_text_:web in 2335) [ClassicSimilarity], result of:
          0.021520529 = score(doc=2335,freq=2.0), product of:
            0.09947448 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.030480823 = queryNorm
            0.21634221 = fieldWeight in 2335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
        0.006226926 = weight(_text_:information in 2335) [ClassicSimilarity], result of:
          0.006226926 = score(doc=2335,freq=2.0), product of:
            0.053508412 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.030480823 = queryNorm
            0.116372846 = fieldWeight in 2335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
      0.21428572 = coord(3/14)
    
    Abstract
    Wie eine gigantische Informationslandschaft tut sich das Internet vor unseren Augen auf. Und seit sich Google im Herbst letzten Jahres mit den Autoren und Verlegern, die die große Suchmaschine wegen Urheberrechtsverletzung verklagt hatten, auf einen Vergleich geeinigt hat, stellt sich die Frage nach der Orientierung im World Wide Web mit neuer Dringlichkeit. Während der letzten vier Jahre hat Google Millionen von Büchern, darunter zahllose urheberrechtlich geschützte Werke, aus den Beständen großer Forschungsbibliotheken digitalisiert und für die Onlinesuche ins Netz gestellt. Autoren und Verleger machten dagegen geltend, dass die Digitalisierung eine Copyrightverletzung darstelle. Nach langwierigen Verhandlungen einigte man sich auf eine Regelung, die gravierende Auswirkungen darauf haben wird, wie Bücher den Weg zu ihren Lesern finden. . . .
    Theme
    Information
  18. Foerster, H. von; Müller, A.; Müller, K.H.: Rück- und Vorschauen : Heinz von Foerster im Gespräch mit Albert Müller und Karl H. Müller (2001) 0.01
    0.014271249 = product of:
      0.06659916 = sum of:
        0.029495254 = weight(_text_:bibliothek in 5988) [ClassicSimilarity], result of:
          0.029495254 = score(doc=5988,freq=6.0), product of:
            0.12513994 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.030480823 = queryNorm
            0.23569816 = fieldWeight in 5988, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5988)
        0.032974172 = weight(_text_:wien in 5988) [ClassicSimilarity], result of:
          0.032974172 = score(doc=5988,freq=2.0), product of:
            0.17413543 = queryWeight, product of:
              5.7129507 = idf(docFreq=396, maxDocs=44218)
              0.030480823 = queryNorm
            0.18935935 = fieldWeight in 5988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7129507 = idf(docFreq=396, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5988)
        0.0041297306 = product of:
          0.012389191 = sum of:
            0.012389191 = weight(_text_:22 in 5988) [ClassicSimilarity], result of:
              0.012389191 = score(doc=5988,freq=2.0), product of:
                0.10673865 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030480823 = queryNorm
                0.116070345 = fieldWeight in 5988, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5988)
          0.33333334 = coord(1/3)
      0.21428572 = coord(3/14)
    
    Content
    Noch einige Schritte weiter zurück. Oft haben mich Bibliothekare angesprochen, wie sollte man eine Bibliothek aufbauen? Wir schauen, sagten sie, in eine Bibliothek so hinein, als wäre sie wie ein Gedächtnis. "Das ist schön, aber wissen Sie, wie das Gedächtnis funktioniert? "Nein, aber viele Leute sagen, das Gedächtnis arbeitet wie eine große Bibliothek. Man muß nur hineingreifen und das richtige Buch finden. "Das ist alles wunderschön und sehr lieb, aber wissen Sie, die Leute, die ein Buch suchen, suchen es ja nur, weil sie ein Problem haben und hoffen, in dem Buch die Antwort für das Problem zu finden. Das Buch ist nur ein Zwischenträger von einer Frage und einer vielleicht in dem Buch zu findenden Antwort. Aber das Buch ist nicht die Antwort. "Aha, wie stellen Sie sich das vor? Wir sollten das Problem so sehen, daß die Inhalte der Bücher, die semantische Struktur - wenn man jetzt diesen Ausdruck wieder verwenden möchte - dieser Bücher in einem System sitzt, sodaß ich in diese semantische Struktur mit meiner Frage einsteigen kann, und mir die semantische Struktur dieses Systems sagt, dann mußt du Karl Müllers Arbeiten über Symbole lesen, dann wirst du wissen, was du suchst. Ich wüßte aber von vornherein überhaupt nicht, wer der Karl Müller ist, daß er über Symbole geschrieben hat, etc., aber das System kann mir das liefern.
    Date
    10. 9.2006 17:22:54
    Imprint
    Wien : Springer
  19. Grimm, J.; Grimm, W.: Deutsches Wörterbuch - Der digitale Grimm : Elektronische Ausgabe der Erstbearbeitung (2004) 0.01
    0.012725449 = product of:
      0.08907814 = sum of:
        0.075312376 = weight(_text_:elektronische in 1203) [ClassicSimilarity], result of:
          0.075312376 = score(doc=1203,freq=2.0), product of:
            0.14414315 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.030480823 = queryNorm
            0.5224832 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.078125 = fieldNorm(doc=1203)
        0.01376577 = product of:
          0.04129731 = sum of:
            0.04129731 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.04129731 = score(doc=1203,freq=2.0), product of:
                0.10673865 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030480823 = queryNorm
                0.38690117 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1203)
          0.33333334 = coord(1/3)
      0.14285715 = coord(2/14)
    
    Date
    22. 7.2004 9:54:37
  20. Hermsdorf, D.: Zweifel an Franz Hörmanns "Informationsgeld" : https://www.heise.de/tp/features/Zweifel-an-Franz-Hoermanns-Informationsgeld-3730411.html. (2017) 0.01
    0.012367968 = product of:
      0.08657578 = sum of:
        0.07693974 = weight(_text_:wien in 3675) [ClassicSimilarity], result of:
          0.07693974 = score(doc=3675,freq=2.0), product of:
            0.17413543 = queryWeight, product of:
              5.7129507 = idf(docFreq=396, maxDocs=44218)
              0.030480823 = queryNorm
            0.4418385 = fieldWeight in 3675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7129507 = idf(docFreq=396, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3675)
        0.009636039 = product of:
          0.028908115 = sum of:
            0.028908115 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
              0.028908115 = score(doc=3675,freq=2.0), product of:
                0.10673865 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030480823 = queryNorm
                0.2708308 = fieldWeight in 3675, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3675)
          0.33333334 = coord(1/3)
      0.14285715 = coord(2/14)
    
    Abstract
    Systematische Alternativen zu Zinssystem, Giralgeld und Zentralbanken wurden in der Folgezeit der Marxschen Theorie des Kapitals mehrfach durchdacht. In Deutschland war es zuletzt wohl die AG Geldordnung und Finanzpolitik der Piratenpartei, in der die meisten Teilnehmer zum fundierteren Nachdenken über Geld ermuntert wurden. Hinzu kommen vielerlei Websites und Internet-Videos, in denen sich das Konkurrenzangebot zu den durch Finanzkrisen in Misskredit geratenen universitären Wirtschaftslehren entfaltet. Zu den bekannteren Experten, die auf diesen neuen Bühnen auftreten, gehört Franz Hörmann, Professor an der Universität Wien. Neuerdings firmiert er als finanzpolitischer Sprecher der jungen Partei "Deutsche Mitte" (DM), die der ehemalige ARD-Journalist und Politikberater Christoph Hörstel ins Leben rief. Hier steht Hörmanns Lehre im Kontext einer vehementen politischen Gegnerschaft zum globalen "Finanzkartell".
    Date
    20. 6.2017 11:55:22

Authors

Years

Types

  • a 154
  • i 34
  • m 13
  • r 11
  • x 10
  • b 6
  • s 4
  • l 1
  • n 1
  • More… Less…