Search (69 results, page 1 of 4)

  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Strecker, D.: Nutzung der Schattenbibliothek Sci-Hub in Deutschland (2019) 0.08
    0.082819015 = product of:
      0.16563803 = sum of:
        0.16563803 = sum of:
          0.12413845 = weight(_text_:dokumente in 596) [ClassicSimilarity], result of:
            0.12413845 = score(doc=596,freq=4.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.47746342 = fieldWeight in 596, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.046875 = fieldNorm(doc=596)
          0.041499574 = weight(_text_:22 in 596) [ClassicSimilarity], result of:
            0.041499574 = score(doc=596,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.23214069 = fieldWeight in 596, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=596)
      0.5 = coord(1/2)
    
    Abstract
    Anfang der 2000er Jahre entstanden in Reaktion auf unzureichende Zugangswege zu Fachliteratur und ausgelöst durch steigende Subskriptionsgebühren wissenschaftlicher Zeitschriften erste illegale Dokumentensammlungen, sogenannte Schattenbibliotheken. Schattenbibliotheken sind Internetdienste, die ohne Zustimmung der RechteinhaberInnen Datenbanken mit wissenschaftlichen Volltexten erstellen, betreiben und allen Interessierten dadurch den Zugriff auf wissenschaftliche Literatur ermöglichen. Zu den meistgenutzten Schattenbibliotheken zählt Sci-Hub. Der Dienst wurde 2011 von Alexandra Elbakyan entwickelt und umfasste zum Zeitpunkt der Untersuchung mehr als 74 Millionen Dokumente. Die Akzeptanz dieser Dienste unter Forschenden und anderen Personengruppen, verschwimmende Grenzen in der öffentlichen Wahrnehmung zu Open Access sowie mögliche Konsequenzen für bestehende legale Zugänge zu Fachliteratur beschäftigen nicht nur InformationswissenschaftlerInnen weltweit. In diesem Beitrag wird die Rolle des Phänomens Schattenbibliothek bei der wissenschaftlichen Informationsversorgung in Deutschland untersucht, insbesondere im Hinblick auf regionale Verteilungen von Downloads, Zugriffszeiten, Zusammenhängen zwischen der Größe bestimmter Personengruppen (Bevölkerungszahl, Anzahl wissenschaftlicher Mitarbeitender an Hochschulen) und den Downloadzahlen eines Bundeslands sowie den Eigenschaften der angefragten Dokumente (Themen, Verlage, Publikationsalter beim Zugriff).
    Date
    1. 1.2020 13:22:34
  2. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.07
    0.0675677 = product of:
      0.1351354 = sum of:
        0.1351354 = product of:
          0.40540618 = sum of:
            0.40540618 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.40540618 = score(doc=1826,freq=2.0), product of:
                0.43280408 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05105019 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  3. Gillitzer, B.: Yewno (2017) 0.06
    0.055212677 = product of:
      0.11042535 = sum of:
        0.11042535 = sum of:
          0.08275897 = weight(_text_:dokumente in 3447) [ClassicSimilarity], result of:
            0.08275897 = score(doc=3447,freq=4.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.31830895 = fieldWeight in 3447, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.03125 = fieldNorm(doc=3447)
          0.027666384 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
            0.027666384 = score(doc=3447,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.15476047 = fieldWeight in 3447, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3447)
      0.5 = coord(1/2)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  4. Wolf, S.: Neuer Meilenstein für BASE : 90 Millionen Dokumente (2016) 0.04
    0.038009487 = product of:
      0.076018974 = sum of:
        0.076018974 = product of:
          0.15203795 = sum of:
            0.15203795 = weight(_text_:dokumente in 2872) [ClassicSimilarity], result of:
              0.15203795 = score(doc=2872,freq=6.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.5847709 = fieldWeight in 2872, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2872)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    BASE (https://www.base-search.net) ermöglicht seit Anfang April eine Suche nach über 90 Millionen Dokumenten, deren Metadaten von über 4.200 Dokumentenservern (Repositories) wissenschaftlicher Institutionen weltweit bereit gestellt werden. Damit ist BASE nach Google Scholar die größte Suchmaschine für wissenschaftliche, frei im Internet verfügbare Dokumente. Für über 30 Mio. Dokumente, die in BASE zu finden sind, können wir aufgrund von Informationen in den Metadaten einen Open-Access-Status ausweisen, insgesamt schätzen wir den Open-Access-Anteil derzeit auf 60%. Über ein Boosting-Verfahren werden Nachweise zu Open-Access-Dokumenten bevorzugt angezeigt, ebenso ist ein gezieltes Suchen unter Berücksichtigung verschiedener Lizenz- und Rechteangaben möglich. Der BASE-Index steht über verschiedene Schnittstellen zahlreichen anderen kommerziellen und nicht-kommerziellen Discovery-Systemen, Suchmaschinen, Datenbankanbietern, Fachbibliotheken und Entwicklern zur Nachnutzung zur Verfügung. BASE trägt damit wesentlich zur Nutzung von Inhalten auf Dokumentservern bei. Weitere Informationen: https://www.base-search.net/
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.03
    0.03378385 = product of:
      0.0675677 = sum of:
        0.0675677 = product of:
          0.20270309 = sum of:
            0.20270309 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.20270309 = score(doc=4388,freq=2.0), product of:
                0.43280408 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05105019 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.03
    0.029259713 = product of:
      0.058519427 = sum of:
        0.058519427 = product of:
          0.11703885 = sum of:
            0.11703885 = weight(_text_:dokumente in 3081) [ClassicSimilarity], result of:
              0.11703885 = score(doc=3081,freq=8.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.45015684 = fieldWeight in 3081, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3081)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
  7. Kopp, O.: Google Hummingbird-Algorithmus-Update : Infos & Hintergründe (2013) 0.03
    0.02560225 = product of:
      0.0512045 = sum of:
        0.0512045 = product of:
          0.102409 = sum of:
            0.102409 = weight(_text_:dokumente in 2522) [ClassicSimilarity], result of:
              0.102409 = score(doc=2522,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.39388722 = fieldWeight in 2522, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2522)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Pünktlich zum 15. Geburtstag der Google Suche verkündete Google gestern auf einer Pressekonferenz in der "Gründungs-Garage", dass das bedeutendste Google Update seit dem Caffeine Update im Jahr 2010 und größte Algorithmus-Update seit 2001 schon seit ca. einem Monat aktiv ist. Das aktuelle Update heißt Hummingbird zu deutsch Kollibri. Es soll ca. 90% aller Suchanfragen betreffen und soll im Vergleich zu Caffeine ein echtes Algorithmus-Update sein. Es soll dabei helfen komplexere Suchanfragen besser zu deuten und noch besser die eigentliche Suchintention bzw. Fragestellung hinter einer Suchanfrage zu erkennen sowie passende Dokumente dazu anzubieten. Auch auf Dokumentenebene soll die eigentliche Intention hinter dem Content besser mit der Suchanfrage gematcht werden.
  8. Weisbrod, D.: Prospektiv statt retrospektiv : einige Gedanken zur Entstehung des Vorlass-Erwerbs und seine Bedeutung für die Langzeitarchivierung digitaler Nachlässe in Literaturarchiven (2018) 0.03
    0.02560225 = product of:
      0.0512045 = sum of:
        0.0512045 = product of:
          0.102409 = sum of:
            0.102409 = weight(_text_:dokumente in 4206) [ClassicSimilarity], result of:
              0.102409 = score(doc=4206,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.39388722 = fieldWeight in 4206, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4206)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    "Vorlass" wurde in Deutschland als Begriff für Manuskripte und andere persönliche Dokumente geprägt, die Schriftstellerinnen und Schriftsteller noch zu Lebzeiten an Literaturarchive übergeben. Abgesehen davon, dass manche von ihnen den Vorlass-Handel als einträgliche Verdienstmöglichkeit nutzen, verbirgt sich hinter dem Begriff eine Erwerbungs-Strategie der Literaturarchive. Die Entwicklung dieser Strategie fand vor dem bildungspolitischen und ökonomischen Hintergrund der US-amerikanischen Hochschulbibliotheken statt; sie hat danach auch andere englischsprachige Länder ergriffen. In Deutschland führte diese Erwerbungsstrategie hingegen lange ein Nischendasein. Dieser Beitrag erörtert die Entstehung des Vorlass-Handels in den USA und seine verzögerte Rezeption in Deutschland.
  9. Auer, S.; Kasprzik, A.; Sens, I.: Von dokumentenbasierten zu wissensbasierten Informationsflüssen : Die Rolle wissenschaftlicher Bibliotheken im Transformationsprozess. Teil 1: Vor einer Revolution der wissenschaftlichen Kommunikation (2019) 0.03
    0.025339657 = product of:
      0.050679315 = sum of:
        0.050679315 = product of:
          0.10135863 = sum of:
            0.10135863 = weight(_text_:dokumente in 5241) [ClassicSimilarity], result of:
              0.10135863 = score(doc=5241,freq=6.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.38984728 = fieldWeight in 5241, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5241)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im Zuge der Vernetzung und Digitalisierung sind mittlerweile nahezu alle Arten von Information online verfügbar und der Informationsaustausch hat sich in zahlreichen Bereichen radikal gewandelt. Informationen, die früher über gedruckte Medien wie Telefon- und Adressbücher, Straßenkarten und -atlanten oder auch Katalogen für den Bestell-Einzelhandel zur Verfügung gestellt wurden, werden heute in der Regel online und komplett anders strukturiert dargeboten. In der Wissenschaft erfolgt die Kommunikation von Forschungsergebnissen jedoch nach wie vor auf der Basis statischer Text-Dokumente: Forscher erarbeiten Aufsätze und Artikel, die in Online- und Offline-Publikationsmedien als grobgranulare und wenig übergreifend strukturierte Dokumente verfügbar gemacht werden. Als Nutzer einer Bibliothek suchen sie dann ihrerseits nach Dokumenten und müssen zunächst in langen Trefferlisten die passenden Dokumente und in diesen wiederum die für sie relevanten Informationen identifizieren. Auch wenn der Anteil an Publikationen wächst, die im Open Access verfügbar sind, sind die Wissenschaftler weiterhin darauf angewiesen, dass die Bibliothek ihnen ein umfassendes Ressourcenangebot zur Verfügung stellt. Auf diese grundsätzliche Vorgehensweise ist die gesamte Bibliotheks-, Technologie-, Dienst- und Forschungslandschaft derzeit ausgerichtet. Während es früher ausreichte, nur wenige Zeitschriften für das eigene Fach im Blick zu haben, sind Information Overload und Transdisziplinarität nun allgegenwärtige Herausforderungen. Die TIB hat mit der Realisierung eines prototypischen ORKG-Dienstes begonnen.
  10. Wolchover, N.: Wie ein Aufsehen erregender Beweis kaum Beachtung fand (2017) 0.02
    0.02445386 = product of:
      0.04890772 = sum of:
        0.04890772 = product of:
          0.09781544 = sum of:
            0.09781544 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.09781544 = score(doc=3582,freq=4.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 4.2017 10:42:05
    22. 4.2017 10:48:38
  11. Hafner, R.; Schelling, B.: Automatisierung der Sacherschließung mit Semantic Web Technologie (2015) 0.02
    0.024208086 = product of:
      0.04841617 = sum of:
        0.04841617 = product of:
          0.09683234 = sum of:
            0.09683234 = weight(_text_:22 in 8365) [ClassicSimilarity], result of:
              0.09683234 = score(doc=8365,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.5416616 = fieldWeight in 8365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8365)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2015 16:08:38
  12. Baier Benninger, P.: Model requirements for the management of electronic records (MoReq2) : Anleitung zur Umsetzung (2011) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 4343) [ClassicSimilarity], result of:
              0.08777914 = score(doc=4343,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 4343, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4343)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Elektronische Dokumente
  13. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 2133) [ClassicSimilarity], result of:
              0.08777914 = score(doc=2133,freq=8.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 2133, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2133)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
  14. Röthler, D.: "Lehrautomaten" oder die MOOC-Vision der späten 60er Jahre (2014) 0.02
    0.020749787 = product of:
      0.041499574 = sum of:
        0.041499574 = product of:
          0.08299915 = sum of:
            0.08299915 = weight(_text_:22 in 1552) [ClassicSimilarity], result of:
              0.08299915 = score(doc=1552,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.46428138 = fieldWeight in 1552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1552)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2018 11:04:35
  15. Schultz, S.: ¬Die eine App für alles : Mobile Zukunft in China (2016) 0.02
    0.019563088 = product of:
      0.039126176 = sum of:
        0.039126176 = product of:
          0.07825235 = sum of:
            0.07825235 = weight(_text_:22 in 4313) [ClassicSimilarity], result of:
              0.07825235 = score(doc=4313,freq=4.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.4377287 = fieldWeight in 4313, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4313)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2018 14:22:02
  16. Meister, A.: Projekt "ANISKI" : Wie der BND mit 150 Millionen Euro Messenger wie WhatsApp entschlüsseln will (2016) 0.02
    0.018287322 = product of:
      0.036574643 = sum of:
        0.036574643 = product of:
          0.073149286 = sum of:
            0.073149286 = weight(_text_:dokumente in 3265) [ClassicSimilarity], result of:
              0.073149286 = score(doc=3265,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.28134802 = fieldWeight in 3265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3265)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Am Freitag hat der Bundestag den Haushalt für 2017 beschlossen. Der BND bekommt nächstes Jahr 807 Millionen Euro, zwölf Prozent mehr als dieses Jahr. Bundeskanzlerin Merkel sagte gestern: "Circa eine halbe Milliarde Euro werden jetzt und in den kommenden Jahren in technische Entwicklungen investiert, damit der BND mit den heutigen Anforderungen auf dem Gebiet [der Modernisierung] wirklich Schritt halten kann." Wofür genau der BND diesen Geldregen ausgibt, wird nicht veröffentlicht - das ist geheim. Der Rechercheverbund NDR, WDR und Süddeutsche Zeitung berichtete im September, dass 21,5 Millionen Euro dafür geplant sind, verschlüsselte Kommunikationsdienste wie Instant-Messenger besser überwachen zu können. Wir haben jetzt Dokumente erhalten, aus denen hervorgeht, dass der BND für das Knacken von Verschlüsselung ganze 150 Millionen Euro ausgeben will, dieses Jahr 5,4 Millionen und nächstes Jahr schon knapp 16 Millionen Euro. Das steht im "geheim" eingestuften Haushaltsposten für das neue Projekt "ANISKI", den wir an dieser Stelle wie gewohnt in Volltext veröffentlichen.
  17. Wiesenmüller, H.: Baustelle RDA : die Dynamik des Regelwerks als Herausforderung (2017) 0.02
    0.018287322 = product of:
      0.036574643 = sum of:
        0.036574643 = product of:
          0.073149286 = sum of:
            0.073149286 = weight(_text_:dokumente in 4000) [ClassicSimilarity], result of:
              0.073149286 = score(doc=4000,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.28134802 = fieldWeight in 4000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4000)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Beitrag beschreibt die dynamische Entwicklung des Katalogisierungsregelwerks "Resource Description and Access" (RDA) und die weitreichenden Konsequenzen, die sich daraus für den deutschsprachigen Raum ergeben. Seit seinem ersten Erscheinen im Jahr 2010 hat sich RDA erheblich verändert. Größere Regeländerungen wurden bisher einmal jährlich in den Standard eingearbeitet, kleinere sogar viermal jährlich. Im Rahmen des 3R-Projekts (RDA Toolkit Restructure and Redesign Project) erfolgt derzeit eine umfassende Umstrukturierung und Neugestaltung des Regelwerkstextes. Auch danach ist nicht mit einem merklichen Nachlassen der Dynamik zu rechnen. Jede Änderung am Standard muss verarbeitet und für die D-A-CH-Länder aufbereitet werden. Der Aufwand dafür ist hoch: Vielfach müssen Anwendungsregeln angepasst werden, und neben der deutschen Übersetzung sind zahlreiche weitere Dokumente zu aktualisieren. Teilweise wirken sich Änderungen auch auf die Implementierung aus. Schließlich müssen alle Neuerungen umfassend kommuniziert werden. Zur Unterstützung der komplexen Prozesse werden professionelle und mächtige Werkzeuge benötigt. Noch wichtiger ist es jedoch, ein Bewusstsein dafür zu schaffen, dass für die Arbeiten dauerhaft ausreichende Personalressourcen bereitgestellt werden müssen. Denn nur der Umstieg auf RDA ist abgeschlossen - die kontinuierliche Arbeit am Regelwerk geht weiter.
  18. Guidi, F.; Sacerdoti Coen, C.: ¬A survey on retrieval of mathematical knowledge (2015) 0.02
    0.01729149 = product of:
      0.03458298 = sum of:
        0.03458298 = product of:
          0.06916596 = sum of:
            0.06916596 = weight(_text_:22 in 5865) [ClassicSimilarity], result of:
              0.06916596 = score(doc=5865,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.38690117 = fieldWeight in 5865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5865)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.2017 12:51:57
  19. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.02
    0.01729149 = product of:
      0.03458298 = sum of:
        0.03458298 = product of:
          0.06916596 = sum of:
            0.06916596 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.06916596 = score(doc=5576,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    13.12.2017 14:17:22
  20. Schönherr, M.: Bestechend brillant : die Schönheit der Algorithmen (2016) 0.02
    0.01729149 = product of:
      0.03458298 = sum of:
        0.03458298 = product of:
          0.06916596 = sum of:
            0.06916596 = weight(_text_:22 in 2762) [ClassicSimilarity], result of:
              0.06916596 = score(doc=2762,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.38690117 = fieldWeight in 2762, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2762)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 2.2016 17:22:23

Languages

  • d 50
  • e 17
  • a 1
  • More… Less…

Types

  • a 40
  • x 3
  • r 2
  • s 2
  • m 1
  • More… Less…