Search (197 results, page 1 of 10)

  • × type_ss:"el"
  1. Strecker, D.: Nutzung der Schattenbibliothek Sci-Hub in Deutschland (2019) 0.08
    0.082819015 = product of:
      0.16563803 = sum of:
        0.16563803 = sum of:
          0.12413845 = weight(_text_:dokumente in 596) [ClassicSimilarity], result of:
            0.12413845 = score(doc=596,freq=4.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.47746342 = fieldWeight in 596, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.046875 = fieldNorm(doc=596)
          0.041499574 = weight(_text_:22 in 596) [ClassicSimilarity], result of:
            0.041499574 = score(doc=596,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.23214069 = fieldWeight in 596, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=596)
      0.5 = coord(1/2)
    
    Abstract
    Anfang der 2000er Jahre entstanden in Reaktion auf unzureichende Zugangswege zu Fachliteratur und ausgelöst durch steigende Subskriptionsgebühren wissenschaftlicher Zeitschriften erste illegale Dokumentensammlungen, sogenannte Schattenbibliotheken. Schattenbibliotheken sind Internetdienste, die ohne Zustimmung der RechteinhaberInnen Datenbanken mit wissenschaftlichen Volltexten erstellen, betreiben und allen Interessierten dadurch den Zugriff auf wissenschaftliche Literatur ermöglichen. Zu den meistgenutzten Schattenbibliotheken zählt Sci-Hub. Der Dienst wurde 2011 von Alexandra Elbakyan entwickelt und umfasste zum Zeitpunkt der Untersuchung mehr als 74 Millionen Dokumente. Die Akzeptanz dieser Dienste unter Forschenden und anderen Personengruppen, verschwimmende Grenzen in der öffentlichen Wahrnehmung zu Open Access sowie mögliche Konsequenzen für bestehende legale Zugänge zu Fachliteratur beschäftigen nicht nur InformationswissenschaftlerInnen weltweit. In diesem Beitrag wird die Rolle des Phänomens Schattenbibliothek bei der wissenschaftlichen Informationsversorgung in Deutschland untersucht, insbesondere im Hinblick auf regionale Verteilungen von Downloads, Zugriffszeiten, Zusammenhängen zwischen der Größe bestimmter Personengruppen (Bevölkerungszahl, Anzahl wissenschaftlicher Mitarbeitender an Hochschulen) und den Downloadzahlen eines Bundeslands sowie den Eigenschaften der angefragten Dokumente (Themen, Verlage, Publikationsalter beim Zugriff).
    Date
    1. 1.2020 13:22:34
  2. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.07
    0.0675677 = product of:
      0.1351354 = sum of:
        0.1351354 = product of:
          0.40540618 = sum of:
            0.40540618 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.40540618 = score(doc=1826,freq=2.0), product of:
                0.43280408 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05105019 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  3. Gillitzer, B.: Yewno (2017) 0.06
    0.055212677 = product of:
      0.11042535 = sum of:
        0.11042535 = sum of:
          0.08275897 = weight(_text_:dokumente in 3447) [ClassicSimilarity], result of:
            0.08275897 = score(doc=3447,freq=4.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.31830895 = fieldWeight in 3447, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.03125 = fieldNorm(doc=3447)
          0.027666384 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
            0.027666384 = score(doc=3447,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.15476047 = fieldWeight in 3447, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3447)
      0.5 = coord(1/2)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  4. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.05
    0.054054156 = product of:
      0.10810831 = sum of:
        0.10810831 = product of:
          0.32432494 = sum of:
            0.32432494 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.32432494 = score(doc=230,freq=2.0), product of:
                0.43280408 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05105019 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  5. Diedrichs, R.: Kooperative Katalogisierung und Nachweis von Internetquellen (2006) 0.05
    0.0512045 = product of:
      0.102409 = sum of:
        0.102409 = product of:
          0.204818 = sum of:
            0.204818 = weight(_text_:dokumente in 3112) [ClassicSimilarity], result of:
              0.204818 = score(doc=3112,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.78777444 = fieldWeight in 3112, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3112)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  6. Scott, M.: Legal deposit of on-line materials and national bibliographies (2001) 0.05
    0.0512045 = product of:
      0.102409 = sum of:
        0.102409 = product of:
          0.204818 = sum of:
            0.204818 = weight(_text_:dokumente in 6909) [ClassicSimilarity], result of:
              0.204818 = score(doc=6909,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.78777444 = fieldWeight in 6909, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6909)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  7. Werner, C.: Global publishing and national heritage : selection of Internet resources for national bibliographies (2001) 0.05
    0.0512045 = product of:
      0.102409 = sum of:
        0.102409 = product of:
          0.204818 = sum of:
            0.204818 = weight(_text_:dokumente in 6912) [ClassicSimilarity], result of:
              0.204818 = score(doc=6912,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.78777444 = fieldWeight in 6912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6912)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  8. Geißelmann, F.: ¬The cataloging of electronic publications : ways out of heterogenity (2000) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 5401) [ClassicSimilarity], result of:
              0.17555828 = score(doc=5401,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 5401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5401)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  9. Beacom, M.: Crossing a digital divide : AACR2 and unaddressed problems of networked ressources (2000) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 6805) [ClassicSimilarity], result of:
              0.17555828 = score(doc=6805,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 6805, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6805)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  10. Graf, K.: DNB, die "schlechteste Nationalbibliothek der Galaxis" (Graf), laesst einmal mehr URN-Links ins Leere laufen (2023) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 978) [ClassicSimilarity], result of:
              0.17555828 = score(doc=978,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 978, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=978)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Elektronische Dokumente
  11. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.04
    0.040891692 = product of:
      0.081783384 = sum of:
        0.081783384 = product of:
          0.16356677 = sum of:
            0.16356677 = weight(_text_:dokumente in 128) [ClassicSimilarity], result of:
              0.16356677 = score(doc=128,freq=10.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6291133 = fieldWeight in 128, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=128)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  12. Wolf, S.: Neuer Meilenstein für BASE : 90 Millionen Dokumente (2016) 0.04
    0.038009487 = product of:
      0.076018974 = sum of:
        0.076018974 = product of:
          0.15203795 = sum of:
            0.15203795 = weight(_text_:dokumente in 2872) [ClassicSimilarity], result of:
              0.15203795 = score(doc=2872,freq=6.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.5847709 = fieldWeight in 2872, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2872)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    BASE (https://www.base-search.net) ermöglicht seit Anfang April eine Suche nach über 90 Millionen Dokumenten, deren Metadaten von über 4.200 Dokumentenservern (Repositories) wissenschaftlicher Institutionen weltweit bereit gestellt werden. Damit ist BASE nach Google Scholar die größte Suchmaschine für wissenschaftliche, frei im Internet verfügbare Dokumente. Für über 30 Mio. Dokumente, die in BASE zu finden sind, können wir aufgrund von Informationen in den Metadaten einen Open-Access-Status ausweisen, insgesamt schätzen wir den Open-Access-Anteil derzeit auf 60%. Über ein Boosting-Verfahren werden Nachweise zu Open-Access-Dokumenten bevorzugt angezeigt, ebenso ist ein gezieltes Suchen unter Berücksichtigung verschiedener Lizenz- und Rechteangaben möglich. Der BASE-Index steht über verschiedene Schnittstellen zahlreichen anderen kommerziellen und nicht-kommerziellen Discovery-Systemen, Suchmaschinen, Datenbankanbietern, Fachbibliotheken und Entwicklern zur Nachnutzung zur Verfügung. BASE trägt damit wesentlich zur Nutzung von Inhalten auf Dokumentservern bei. Weitere Informationen: https://www.base-search.net/
  13. Wätjen, H.-J.; Diekmann, B.; Möller, G.; Carstensen, K.-U.: Bericht zum DFG-Projekt: GERHARD : German Harvest Automated Retrieval and Directory (1998) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 3065) [ClassicSimilarity], result of:
              0.14629857 = score(doc=3065,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 3065, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3065)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    http://www.gerhard.de/info/Dokumente/Bericht/bericht.pdf
  14. Huthwaite, A.: AACR2 and its place in the digital world : near-term solutions and long-term direction (2000) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 6806) [ClassicSimilarity], result of:
              0.14629857 = score(doc=6806,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 6806, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6806)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  15. Braun, T.: Dokumentklassifikation durch Clustering (o.J.) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 1671) [ClassicSimilarity], result of:
              0.14629857 = score(doc=1671,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 1671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1671)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Beim Clustering werden Dokumente aufgrund von Ähnlichkeiten untereinander klassifiziert, im Gegensatz z.B. zur Klassifikation anhand einer Ontologie. Bei den gebräuchlichen Clusteringverfahren wird ein Dokument als die Menge seiner Wörter angesehen. Zur Bestimmung der Ähnlichkeit zwischen Dokumenten werden verschiedene Ähnlichkeitsmaße definiert.
  16. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.03
    0.03378385 = product of:
      0.0675677 = sum of:
        0.0675677 = product of:
          0.20270309 = sum of:
            0.20270309 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.20270309 = score(doc=4388,freq=2.0), product of:
                0.43280408 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05105019 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  17. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.03
    0.03378385 = product of:
      0.0675677 = sum of:
        0.0675677 = product of:
          0.20270309 = sum of:
            0.20270309 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.20270309 = score(doc=5669,freq=2.0), product of:
                0.43280408 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05105019 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  18. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.03
    0.031034613 = product of:
      0.062069226 = sum of:
        0.062069226 = product of:
          0.12413845 = sum of:
            0.12413845 = weight(_text_:dokumente in 2434) [ClassicSimilarity], result of:
              0.12413845 = score(doc=2434,freq=4.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.47746342 = fieldWeight in 2434, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2434)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    http://www.heise.de/newsticker/Semantische-Suche-ueber-500-Millionen-Web-Dokumente--/meldung/140630
  19. Neudecker, C.: Zur Kuratierung digitalisierter Dokumente mit Künstlicher Intelligenz : das Qurator-Projekt (2020) 0.03
    0.031034613 = product of:
      0.062069226 = sum of:
        0.062069226 = product of:
          0.12413845 = sum of:
            0.12413845 = weight(_text_:dokumente in 47) [ClassicSimilarity], result of:
              0.12413845 = score(doc=47,freq=4.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.47746342 = fieldWeight in 47, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=47)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Elektronische Dokumente
  20. Voß, J.: Zur Neubestimmung des Dokumentenbegriffs im rein Digitalen (2009) 0.03
    0.029259713 = product of:
      0.058519427 = sum of:
        0.058519427 = product of:
          0.11703885 = sum of:
            0.11703885 = weight(_text_:dokumente in 4423) [ClassicSimilarity], result of:
              0.11703885 = score(doc=4423,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.45015684 = fieldWeight in 4423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4423)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Elektronische Dokumente

Years

Languages

  • d 111
  • e 80
  • el 2
  • a 1
  • nl 1
  • More… Less…

Types

  • a 80
  • i 10
  • m 5
  • r 5
  • x 4
  • s 3
  • b 2
  • n 2
  • p 1
  • More… Less…