Search (70 results, page 1 of 4)

  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.33
    0.3313318 = product of:
      0.49699768 = sum of:
        0.12424942 = product of:
          0.37274826 = sum of:
            0.37274826 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.37274826 = score(doc=1826,freq=2.0), product of:
                0.3979391 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046937786 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.37274826 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.37274826 = score(doc=1826,freq=2.0), product of:
            0.3979391 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046937786 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.6666667 = coord(2/3)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.17
    0.1656659 = product of:
      0.24849884 = sum of:
        0.06212471 = product of:
          0.18637413 = sum of:
            0.18637413 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.18637413 = score(doc=4388,freq=2.0), product of:
                0.3979391 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.18637413 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.18637413 = score(doc=4388,freq=2.0), product of:
            0.3979391 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046937786 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.6666667 = coord(2/3)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Strecker, D.: Nutzung der Schattenbibliothek Sci-Hub in Deutschland (2019) 0.04
    0.037864305 = product of:
      0.11359291 = sum of:
        0.11359291 = sum of:
          0.07543638 = weight(_text_:datenbanken in 596) [ClassicSimilarity], result of:
            0.07543638 = score(doc=596,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.32640535 = fieldWeight in 596, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046875 = fieldNorm(doc=596)
          0.038156528 = weight(_text_:22 in 596) [ClassicSimilarity], result of:
            0.038156528 = score(doc=596,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.23214069 = fieldWeight in 596, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=596)
      0.33333334 = coord(1/3)
    
    Abstract
    Anfang der 2000er Jahre entstanden in Reaktion auf unzureichende Zugangswege zu Fachliteratur und ausgelöst durch steigende Subskriptionsgebühren wissenschaftlicher Zeitschriften erste illegale Dokumentensammlungen, sogenannte Schattenbibliotheken. Schattenbibliotheken sind Internetdienste, die ohne Zustimmung der RechteinhaberInnen Datenbanken mit wissenschaftlichen Volltexten erstellen, betreiben und allen Interessierten dadurch den Zugriff auf wissenschaftliche Literatur ermöglichen. Zu den meistgenutzten Schattenbibliotheken zählt Sci-Hub. Der Dienst wurde 2011 von Alexandra Elbakyan entwickelt und umfasste zum Zeitpunkt der Untersuchung mehr als 74 Millionen Dokumente. Die Akzeptanz dieser Dienste unter Forschenden und anderen Personengruppen, verschwimmende Grenzen in der öffentlichen Wahrnehmung zu Open Access sowie mögliche Konsequenzen für bestehende legale Zugänge zu Fachliteratur beschäftigen nicht nur InformationswissenschaftlerInnen weltweit. In diesem Beitrag wird die Rolle des Phänomens Schattenbibliothek bei der wissenschaftlichen Informationsversorgung in Deutschland untersucht, insbesondere im Hinblick auf regionale Verteilungen von Downloads, Zugriffszeiten, Zusammenhängen zwischen der Größe bestimmter Personengruppen (Bevölkerungszahl, Anzahl wissenschaftlicher Mitarbeitender an Hochschulen) und den Downloadzahlen eines Bundeslands sowie den Eigenschaften der angefragten Dokumente (Themen, Verlage, Publikationsalter beim Zugriff).
    Date
    1. 1.2020 13:22:34
  4. Hunger, M.; Neubauer, P.: ¬Die vernetzte Welt : Abfragesprachen für Graphendatenbanken (2013) 0.02
    0.017780527 = product of:
      0.05334158 = sum of:
        0.05334158 = product of:
          0.10668316 = sum of:
            0.10668316 = weight(_text_:datenbanken in 1101) [ClassicSimilarity], result of:
              0.10668316 = score(doc=1101,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46160686 = fieldWeight in 1101, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1101)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Graphendatenbanken sind darauf optimiert, stark miteinander vernetzte Informationen effizient zu speichern und greifbar zu machen. Welchen Ansprüchen müssen Abfragesprachen genügen, damit sie für die Arbeit mit diesen Datenbanken geeignet sind? Bei der Aufarbeitung realer Informationen zeigt sich, dass ein hoher, aber unterschätzter Wert in den Beziehungen zwischen Elementen steckt. Seien es Ereignisse aus Geschichte und Politik, Personen in realen und virtuellen sozialen Netzen, Proteine und Gene, Abhängigkeiten in Märkten und Ökonomien oder Rechnernetze, Computer, Software und Anwender - alles ist miteinander verbunden. Der Graph ist ein Datenmodell, das solche Verbindungsgeflechte abbilden kann. Leider lässt sich das Modell mit relationalen und Aggregat-orientierten NoSQL-Datenbanken ab einer gewissen Komplexität jedoch schwer handhaben. Graphendatenbanken sind dagegen darauf optimiert, solche stark miteinander vernetzten Informationen effizient zu speichern und greifbar zu machen. Auch komplexe Fragen lassen sich durch ausgefeilte Abfragen schnell beantworten. Hierbei kommt es auf die geeignete Abfragesprache an.
  5. Wolchover, N.: Wie ein Aufsehen erregender Beweis kaum Beachtung fand (2017) 0.01
    0.014989301 = product of:
      0.0449679 = sum of:
        0.0449679 = product of:
          0.0899358 = sum of:
            0.0899358 = weight(_text_:22 in 3582) [ClassicSimilarity], result of:
              0.0899358 = score(doc=3582,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.54716086 = fieldWeight in 3582, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3582)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 4.2017 10:42:05
    22. 4.2017 10:48:38
  6. Hafner, R.; Schelling, B.: Automatisierung der Sacherschließung mit Semantic Web Technologie (2015) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 8365) [ClassicSimilarity], result of:
              0.089031905 = score(doc=8365,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 8365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8365)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2015 16:08:38
  7. Hehl, H.: Contents-Linking Literaturverwaltung (2015) 0.01
    0.014817106 = product of:
      0.044451315 = sum of:
        0.044451315 = product of:
          0.08890263 = sum of:
            0.08890263 = weight(_text_:datenbanken in 1701) [ClassicSimilarity], result of:
              0.08890263 = score(doc=1701,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.3846724 = fieldWeight in 1701, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1701)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Aufsatzzitate als Suchergebnisse von Datenbanken sowie Zeitschriftenverzeichnisse sind wichtige wissenschaftliche Informationsquellen des Internet. Contents-Linking erfasst und verbindet beides miteinander. Was Zeitschriftenverzeichnisse betrifft, so können diese, wenn sie nicht nur titelmässig, sondern auch sachlich erschlossen und ausserdem mit Standortangaben und anderen Daten supplementiert sind, als Zugangsinstrumente zur gesamten wissenschaftlichen Aufsatzliteratur oft eine Recherche in Fachdatenbanken ersetzen. Contents-Linking verwirklicht dieses weitgehend. Die Verknüpfung von Aufsätzen mit einer entsprechend eingerichteten Datenbank von Zeitschriften wurde im Multisuchsystem E-Connect in einer Reihe von Linksystemen durchgeführt. Diese Linksysteme sind inzwischen insgesamt durch das Multiple Linksystem abgelöst worden, das mit der Literaturverwaltung verbunden ist und gleichzeitig auch als Importformular für die Contents Literaturverwaltung dient. Das Multiple Linksystem kann also als selbständiges Verknüpfungssystem zu den Suchergebnissen von Datenbanken mit entsprechenden Anzeigeoptionen, als auch als Importsystem für die Übernahme dieser Suchergebnisse in die Aufsatzdatenbank der Literaturverwaltung dienen. Nicht nur im Multiplen Linksystem, sondern vor allem auch in der Literaturverwaltung findet jedenfalls eine intensive Verknüpfung der beiden Informationsquellen Aufsätze und Zeitschriftenverzeichnisse statt, wodurch weitere Informationen gewonnen werden und vor allem der Zugang zum Volltext erzielt wird. Aufsatzdatenbank und Zeitschriftendatenbank werden mit zwei sehr unterschiedlichen Systemen erstellt: dem schon erwähnten Importformular des Multiplen Linksystems für Aufsätze und dem Einarbeitungssystem für Zeitschriften. Zeitschriftendatenbank und Aufsatzdatenbank können zudem völlig unabhängig voneinander aufgebaut, verwaltet und durchsucht werden, sind aber stets eng miteinander verknüpfbar. Ausserdem sind sie durch automatische Funktionsabläufe in das Gesamtsystem integriert.
  8. Gutknecht, C.: Zahlungen der ETH Zürich an Elsevier, Springer und Wiley nun öffentlich (2015) 0.01
    0.014668185 = product of:
      0.044004556 = sum of:
        0.044004556 = product of:
          0.08800911 = sum of:
            0.08800911 = weight(_text_:datenbanken in 4324) [ClassicSimilarity], result of:
              0.08800911 = score(doc=4324,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.38080624 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Was bezahlt die ETH Bibliothek an Elsevier, Springer und Wiley? Die Antwort auf diese einfache Frage liegt nun nach gut 14 Monaten und einem Entscheid der ersten Rekursinstanz (EDÖB) vor. Werfen wir nun also einen Blick in diese nun erstmals öffentlich zugänglichen Daten (auch als XLSX). Die ETH-Bibliothek schlüsselte die Ausgaben wie von mir gewünscht in Datenbanken, E-Books und Zeitschriften auf.
  9. Röthler, D.: "Lehrautomaten" oder die MOOC-Vision der späten 60er Jahre (2014) 0.01
    0.012718843 = product of:
      0.038156528 = sum of:
        0.038156528 = product of:
          0.076313056 = sum of:
            0.076313056 = weight(_text_:22 in 1552) [ClassicSimilarity], result of:
              0.076313056 = score(doc=1552,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46428138 = fieldWeight in 1552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1552)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2018 11:04:35
  10. Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010) 0.01
    0.012572731 = product of:
      0.03771819 = sum of:
        0.03771819 = product of:
          0.07543638 = sum of:
            0.07543638 = weight(_text_:datenbanken in 3392) [ClassicSimilarity], result of:
              0.07543638 = score(doc=3392,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.32640535 = fieldWeight in 3392, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3392)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Im August 2009 wurde SKOS "Simple Knowledge Organization System" als neuer Standard für web-basierte kontrollierte Vokabulare durch das W3C veröffentlicht1. SKOS dient als Datenmodell, um kontrollierte Vokabulare über das Web anzubieten sowie technisch und semantisch interoperabel zu machen. Perspektivisch kann die heterogene Landschaft der Erschließungsvokabulare über SKOS vereinheitlicht und vor allem die Inhalte der klassischen Datenbanken (Bereich Fachinformation) für Anwendungen des Semantic Web, beispielsweise als Linked Open Data2 (LOD), zugänglich und stär-ker miteinander vernetzt werden. Vokabulare im SKOS-Format können dabei eine relevante Funktion einnehmen, indem sie als standardisiertes Brückenvokabular dienen und semantische Verlinkung zwischen erschlossenen, veröffentlichten Daten herstellen. Die folgende Fallstudie skizziert ein Szenario mit drei thematisch verwandten Thesauri, die ins SKOS-Format übertragen und inhaltlich über Crosskonkordanzen aus dem Projekt KoMoHe verbunden werden. Die Mapping Properties von SKOS bieten dazu standardisierte Relationen, die denen der Crosskonkordanzen entsprechen. Die beteiligten Thesauri der Fallstudie sind a) TheSoz (Thesaurus Sozialwissenschaften, GESIS), b) STW (Standard-Thesaurus Wirtschaft, ZBW) und c) IBLK-Thesaurus (SWP).
  11. Schöneberg, U.; Gödert, W.: Erschließung mathematischer Publikationen mittels linguistischer Verfahren (2012) 0.01
    0.012572731 = product of:
      0.03771819 = sum of:
        0.03771819 = product of:
          0.07543638 = sum of:
            0.07543638 = weight(_text_:datenbanken in 1055) [ClassicSimilarity], result of:
              0.07543638 = score(doc=1055,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.32640535 = fieldWeight in 1055, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1055)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Zahl der mathematik-relevanten Publikationn steigt von Jahr zu Jahr an. Referatedienste wie da Zentralblatt MATH und Mathematical Reviews erfassen die bibliographischen Daten, erschließen die Arbeiten inhaltlich und machen sie - heute über Datenbanken, früher in gedruckter Form - für den Nutzer suchbar. Keywords sind ein wesentlicher Bestandteil der inhaltlichen Erschließung der Publikationen. Keywords sind meist keine einzelnen Wörter, sondern Mehrwortphrasen. Das legt die Anwendung linguistischer Methoden und Verfahren nahe. Die an der FH Köln entwickelte Software 'Lingo' wurde für die speziellen Anforderungen mathematischer Texte angepasst und sowohl zum Aufbau eines kontrollierten Vokabulars als auch zur Extraction von Keywords aus mathematischen Publikationen genutzt. Es ist geplant, über eine Verknüpfung von kontrolliertem Vokabular und der Mathematical Subject Classification Methoden für die automatische Klassifikation für den Referatedienst Zentralblatt MATH zu entwickeln und zu erproben.
  12. Faßnacht, M.: "Druckt die GND Nummer in der Publikation ab!" : Vereinfachung der Normdatenverwendung in Bibliotheken und Datenbanken (2014) 0.01
    0.012572731 = product of:
      0.03771819 = sum of:
        0.03771819 = product of:
          0.07543638 = sum of:
            0.07543638 = weight(_text_:datenbanken in 2393) [ClassicSimilarity], result of:
              0.07543638 = score(doc=2393,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.32640535 = fieldWeight in 2393, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2393)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  13. Jörs, B.: ¬Die überzogenen Ansprüche der Informationswissenschaft : Förderung auf der Basis von Fachkompetenz und im Bewusstsein des eigenen Irrtums: Informationskompetenz (2019) 0.01
    0.012572731 = product of:
      0.03771819 = sum of:
        0.03771819 = product of:
          0.07543638 = sum of:
            0.07543638 = weight(_text_:datenbanken in 5316) [ClassicSimilarity], result of:
              0.07543638 = score(doc=5316,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.32640535 = fieldWeight in 5316, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5316)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Was ist Informationskompetenz? Was macht Informationskompetenz ist Kern aus? Wie weit greift sie, wo endet sie? Inwiefern spielt Informationskompetenz mit weiteren Kompetenzen zusammen? Der heute ziemlich abgenutzte Begriff "Informationskompetenz" entstand in den 1970er Jahren aus Furcht vor dem "Information Overload" und dem "Wissens- und Entwicklungsvorsprung", der durch die Raumfahrtindustrie bewirkt wurde. Er wurde insbesondere vom amerikanischen und britischen Bibliotheks- und Dokumentationswesen übernommen. Bis heute beansprucht insbesondere das Archiv-, Dokumentations- und Bibliothekswesen unter anderem zur Legitimierung ihrer Daseinsberechtigung diese "Kernkompetenz" der Informationsbedarfsdeckung und "Findability" mit Bezug auf das analoge und digitale bibliothekarische Informationsangebot (Kataloge, Datenbanken, E-Journals, E-Books usw.).
  14. Rötzer, F.: Bindestriche in Titeln von Artikeln schaden der wissenschaftlichen Reputation (2019) 0.01
    0.012572731 = product of:
      0.03771819 = sum of:
        0.03771819 = product of:
          0.07543638 = sum of:
            0.07543638 = weight(_text_:datenbanken in 5697) [ClassicSimilarity], result of:
              0.07543638 = score(doc=5697,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.32640535 = fieldWeight in 5697, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5697)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    "Aber warum werden Titel mit Bindestrichen weniger häufig zitiert? Die Wissenschaftler vermuten, dass Autoren, wenn sie einen Artikel zitieren, möglicherweise übersehen, Bindestriche anzugeben. Dann kann in den Datenbanken keine Verlinkung mit dem Artikel mit Bindestrichen im Titel hergestellt werden, weswegen der Zitationsindex falsch wird. Das Problem scheint sich bei mehreren Bindestrichen zu verstärken, die die Irrtumshäufigkeit der Menschen erhöhen. Dass die Länge der Titel etwas mit der Zitationshäufigkeit zu tun hat, bestreiten die Wissenschaftler. Längere Titel würden einfach mit höherer Wahrscheinlichkeit mehr Bindestriche enthalten - und deswegen weniger häufig wegen der Bindestrichfehler zitiert werden. Und Artikel mit Bindestrichen sollen auch den JIF von Wissenschaftsjournalen senken."
  15. Schultz, S.: ¬Die eine App für alles : Mobile Zukunft in China (2016) 0.01
    0.011991441 = product of:
      0.035974324 = sum of:
        0.035974324 = product of:
          0.07194865 = sum of:
            0.07194865 = weight(_text_:22 in 4313) [ClassicSimilarity], result of:
              0.07194865 = score(doc=4313,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.4377287 = fieldWeight in 4313, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4313)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2018 14:22:02
  16. Lehmann, M.: Neue Tools für die Online-Recherche : EU-Projekt EEXCESS veröffentlicht vier neue Prototypen (2015) 0.01
    0.011853684 = product of:
      0.03556105 = sum of:
        0.03556105 = product of:
          0.0711221 = sum of:
            0.0711221 = weight(_text_:datenbanken in 2324) [ClassicSimilarity], result of:
              0.0711221 = score(doc=2324,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.30773792 = fieldWeight in 2324, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2324)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Mitteilung an Inetbib vom 17.11.2015: "die EEXCESS <http://www.eexcess.eu/>-Projektpartner, darunter auch die ZBW - Leibniz Informationszentrum Wirtschaft, stellen vier Prototypen für die personalisierte Daten- und Literaturrecherche vor. Ziel der neuen Software ist es, dem Nutzer bei der wissenschaftlichen Arbeit genau die Spezialressourcen zugänglich zu machen, die zu seinem Profil und zu seinem aktuellen Suchverhalten passen. Dazu wurden neuartige Empfehlungstechnologien entwickelt. Das EU-Projekt EEXCESS befasst sich seit Anfang 2013 mit neuen Methoden der Informationsbereitstellung im Internet. Prof. Dr. Klaus Tochtermann, Direktor der ZBW: "Ich freue mich, dass wir nach dreijähriger Forschungsarbeit diese neuen Recherchewerkzeuge zugänglich machen können. Wir läuten damit einen grundsätzlichen Paradigmenwechsel ein: Bringt die Inhalte zu den Nutzern, nicht die Nutzer zu den Inhalten!" Über ein Userinterface, das in den Google-Chrome-Browser, in den Google-Docs-Editor, in die Blogsoftware WordPress oder auch in das Lernmanagementsystem Moodle integriert werden kann, erhalten die Nutzerinnen und Nutzer automatisch auf sie persönlich zugeschnittene Empfehlungen aus kulturhistorischen Datenbanken wie www.europeana.eu <http://www.europeana.eu> oder auch aus wissenschaftlichen Literaturdatenbanken wie www.mendeley.com <http://www.mendeley.com> (wissenschaftliche Aufsätze) oder www.econbiz.de <http://www.econbiz.de> (wirtschaftswissenschaftliche Literatur). Diese Vorschläge können sie dann bei Bedarf beispielsweise direkt als Referenzen in ihre Texte einbinden. Die Anzahl der an die Software angeschlossenen Datenbanken wird laufend erweitert. Nach einer ersten Beta-Phase im letzten Jahr stehen nun neue Versionen der Prototypen zum kostenlosen Download bereit. Die Links sind auf www.eexcess.eu <http://www.eexcess.eu> zu finden. An dem Forschungsprojekt beteiligt sind insgesamt zehn internationale Projektpartner, darunter die ZBW - Leibniz Informationszentrum Wirtschaft <http://www.zbw.eu/>. Hier wurde das Plug-In für die Blogsoftware WordPress maßgeblich mitentwickelt. Blogger können damit, noch während sie ihren Post verfassen, nach geeigneten Referenzen oder auch Bildern suchen. Zudem kann die ZBW mit ihrer großen Online-Nutzerbasis eine sehr gute Testumgebung für die verschiedenen Tools bieten. Einzelne Visualisierungselemente, die im Projekt entwickelt wurden, kommen zukünftig auch im ZBW-Rechercheportal EconBiz zum Einsatz und können dort getestet werden. Darüber hinaus werden EconBiz-Inhalte über die EEXCESS-Module auch in beliebige andere Umgebungen eingebunden. Die weiteren Projektpartner kommen aus Österreich, Großbritannien, Frankreich, der Schweiz und Deutschland. Die wissenschaftliche Leitung hat Professor Michael Granitzer von der Universität Passau, die allgemeine Projektleitung liegt beim Forschungsinstitut Joanneum Research aus Graz. Das Projektvolumen beträgt insgesamt ca. 6,9 Millionen Euro, Projektlaufzeit ist noch bis Juli 2016.
  17. Guidi, F.; Sacerdoti Coen, C.: ¬A survey on retrieval of mathematical knowledge (2015) 0.01
    0.010599038 = product of:
      0.03179711 = sum of:
        0.03179711 = product of:
          0.06359422 = sum of:
            0.06359422 = weight(_text_:22 in 5865) [ClassicSimilarity], result of:
              0.06359422 = score(doc=5865,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.38690117 = fieldWeight in 5865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5865)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 2.2017 12:51:57
  18. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.01
    0.010599038 = product of:
      0.03179711 = sum of:
        0.03179711 = product of:
          0.06359422 = sum of:
            0.06359422 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.06359422 = score(doc=5576,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    13.12.2017 14:17:22
  19. Schönherr, M.: Bestechend brillant : die Schönheit der Algorithmen (2016) 0.01
    0.010599038 = product of:
      0.03179711 = sum of:
        0.03179711 = product of:
          0.06359422 = sum of:
            0.06359422 = weight(_text_:22 in 2762) [ClassicSimilarity], result of:
              0.06359422 = score(doc=2762,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.38690117 = fieldWeight in 2762, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2762)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    10. 2.2016 17:22:23
  20. Häring, N.; Hensinger, P.: "Digitale Bildung" : Der abschüssige Weg zur Konditionierungsanstalt (2019) 0.01
    0.010599038 = product of:
      0.03179711 = sum of:
        0.03179711 = product of:
          0.06359422 = sum of:
            0.06359422 = weight(_text_:22 in 4999) [ClassicSimilarity], result of:
              0.06359422 = score(doc=4999,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.38690117 = fieldWeight in 4999, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4999)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 2.2019 11:45:19

Languages

  • d 54
  • e 14
  • a 1
  • More… Less…

Types

  • a 41
  • r 3
  • m 1
  • p 1
  • s 1
  • x 1
  • More… Less…