Search (615 results, page 1 of 31)

  • × year_i:[2010 TO 2020}
  • × type_ss:"a"
  1. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.26
    0.260558 = product of:
      0.390837 = sum of:
        0.07454965 = product of:
          0.22364895 = sum of:
            0.22364895 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
              0.22364895 = score(doc=484,freq=2.0), product of:
                0.3979391 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046937786 = queryNorm
                0.56201804 = fieldWeight in 484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=484)
          0.33333334 = coord(1/3)
        0.31628737 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.31628737 = score(doc=484,freq=4.0), product of:
            0.3979391 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046937786 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.6666667 = coord(2/3)
    
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
  2. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.20
    0.19879907 = product of:
      0.2981986 = sum of:
        0.07454965 = product of:
          0.22364895 = sum of:
            0.22364895 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.22364895 = score(doc=400,freq=2.0), product of:
                0.3979391 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046937786 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
        0.22364895 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.22364895 = score(doc=400,freq=2.0), product of:
            0.3979391 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046937786 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  3. Herb, U.; Beucke, D.: ¬Die Zukunft der Impact-Messung : Social Media, Nutzung und Zitate im World Wide Web (2013) 0.10
    0.09939954 = product of:
      0.2981986 = sum of:
        0.2981986 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.2981986 = score(doc=2188,freq=2.0), product of:
            0.3979391 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046937786 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
      0.33333334 = coord(1/3)
    
    Content
    Vgl. unter: https://www.leibniz-science20.de%2Fforschung%2Fprojekte%2Faltmetrics-in-verschiedenen-wissenschaftsdisziplinen%2F&ei=2jTgVaaXGcK4Udj1qdgB&usg=AFQjCNFOPdONj4RKBDf9YDJOLuz3lkGYlg&sig2=5YI3KWIGxBmk5_kv0P_8iQ.
  4. Müller, S.: Schattenbibliotheken : Welche Auswirkungen haben Sci-Hub und Co. auf Verlage und Bibliotheken? (2019) 0.06
    0.05632655 = product of:
      0.16897964 = sum of:
        0.16897964 = sum of:
          0.12446369 = weight(_text_:datenbanken in 765) [ClassicSimilarity], result of:
            0.12446369 = score(doc=765,freq=4.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.5385414 = fieldWeight in 765, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.0546875 = fieldNorm(doc=765)
          0.044515952 = weight(_text_:22 in 765) [ClassicSimilarity], result of:
            0.044515952 = score(doc=765,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.2708308 = fieldWeight in 765, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=765)
      0.33333334 = coord(1/3)
    
    Abstract
    Schattenbibliotheken wie Sci-Hub bieten Zugriff auf wissenschaftliche Volltexte aus allen akademischen Disziplinen. Sie agieren rechtswidrig, indem sie die Bezahlschranken der Verlage umgehen und Dokumente in ihren eigenen Datenbanken speichern. Sie können als eine der Auswirkungen auf die Zeitschriftenkrise der letzten Jahrzehnte verstanden werden. Im Rahmen meiner Bachelorarbeit habe ich mich intensiv mit diesem noch relativ jungen Phänomen auseinandergesetzt. Bibliotheken sind als Bindeglied zwischen den Wissenschaftsverlagen und ihren eigenen Nutzern direkt von Schattenbibliotheken betroffen. Während sie auf der einen Seite von einer besseren Verhandlungsposition gegenüber Verlagen profitieren könnten, müssen sie auf der anderen Seite mit den illegalen Datenbanken konkurrieren. Wie kann diese Gradwanderung gelingen?
    Source
    B.I.T.online. 22(2019) H.5, S.397-404
  5. Schmale, W.: Strategische Optionen für universitäre Repositorien in den Digital Humanities (2018) 0.04
    0.04417502 = product of:
      0.13252506 = sum of:
        0.13252506 = sum of:
          0.08800911 = weight(_text_:datenbanken in 3909) [ClassicSimilarity], result of:
            0.08800911 = score(doc=3909,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.38080624 = fieldWeight in 3909, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3909)
          0.044515952 = weight(_text_:22 in 3909) [ClassicSimilarity], result of:
            0.044515952 = score(doc=3909,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.2708308 = fieldWeight in 3909, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3909)
      0.33333334 = coord(1/3)
    
    Abstract
    Ein ideales Repositorium bedient alle Interessen der unterschiedlichen beteiligten AkteurInnen und ihrer Institution, es entspricht den Erfordernissen konkreter Fächer und Fächergruppen und unterstützt Strategien, die die Wissenschaft insgesamt und langfristig betreffen. Es lässt die für den User unkomplizierte Archivierung sämtlicher digitaler Objekte inklusive Datenbanken zu, spiegelt innovative Forschungsfelder der Universität wider und unterstützt insbesondere auch die Lehre. Es bietet Tools und Rechercheoptionen im Sinne von Big Data an.
    Date
    20. 9.2018 12:22:39
  6. Busch, D.: Domänenspezifische hybride automatische Indexierung von bibliographischen Metadaten (2019) 0.04
    0.037864305 = product of:
      0.11359291 = sum of:
        0.11359291 = sum of:
          0.07543638 = weight(_text_:datenbanken in 5628) [ClassicSimilarity], result of:
            0.07543638 = score(doc=5628,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.32640535 = fieldWeight in 5628, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046875 = fieldNorm(doc=5628)
          0.038156528 = weight(_text_:22 in 5628) [ClassicSimilarity], result of:
            0.038156528 = score(doc=5628,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.23214069 = fieldWeight in 5628, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=5628)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Fraunhofer-Informationszentrum Raum und Bau (IRB) wird Fachliteratur im Bereich Planen und Bauen bibliographisch erschlossen. Die daraus resultierenden Dokumente (Metadaten-Einträge) werden u.a. bei der Produktion der bibliographischen Datenbanken des IRB verwendet. In Abb. 1 ist ein Dokument dargestellt, das einen Zeitschriftenartikel beschreibt. Die Dokumente werden mit Deskriptoren von einer Nomenklatur (Schlagwortliste IRB) indexiert. Ein Deskriptor ist "eine Benennung., die für sich allein verwendbar, eindeutig zur Inhaltskennzeichnung geeignet und im betreffenden Dokumentationssystem zugelassen ist". Momentan wird die Indexierung intellektuell von menschlichen Experten durchgeführt. Die intellektuelle Indexierung ist zeitaufwendig und teuer. Eine Lösung des Problems besteht in der automatischen Indexierung, bei der die Zuordnung von Deskriptoren durch ein Computerprogramm erfolgt. Solche Computerprogramme werden im Folgenden auch als Klassifikatoren bezeichnet. In diesem Beitrag geht es um ein System zur automatischen Indexierung von deutschsprachigen Dokumenten im Bereich Bauwesen mit Deskriptoren aus der Schlagwortliste IRB.
    Source
    B.I.T.online. 22(2019) H.6, S.465-469
  7. Strecker, D.: Nutzung der Schattenbibliothek Sci-Hub in Deutschland (2019) 0.04
    0.037864305 = product of:
      0.11359291 = sum of:
        0.11359291 = sum of:
          0.07543638 = weight(_text_:datenbanken in 596) [ClassicSimilarity], result of:
            0.07543638 = score(doc=596,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.32640535 = fieldWeight in 596, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046875 = fieldNorm(doc=596)
          0.038156528 = weight(_text_:22 in 596) [ClassicSimilarity], result of:
            0.038156528 = score(doc=596,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.23214069 = fieldWeight in 596, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=596)
      0.33333334 = coord(1/3)
    
    Abstract
    Anfang der 2000er Jahre entstanden in Reaktion auf unzureichende Zugangswege zu Fachliteratur und ausgelöst durch steigende Subskriptionsgebühren wissenschaftlicher Zeitschriften erste illegale Dokumentensammlungen, sogenannte Schattenbibliotheken. Schattenbibliotheken sind Internetdienste, die ohne Zustimmung der RechteinhaberInnen Datenbanken mit wissenschaftlichen Volltexten erstellen, betreiben und allen Interessierten dadurch den Zugriff auf wissenschaftliche Literatur ermöglichen. Zu den meistgenutzten Schattenbibliotheken zählt Sci-Hub. Der Dienst wurde 2011 von Alexandra Elbakyan entwickelt und umfasste zum Zeitpunkt der Untersuchung mehr als 74 Millionen Dokumente. Die Akzeptanz dieser Dienste unter Forschenden und anderen Personengruppen, verschwimmende Grenzen in der öffentlichen Wahrnehmung zu Open Access sowie mögliche Konsequenzen für bestehende legale Zugänge zu Fachliteratur beschäftigen nicht nur InformationswissenschaftlerInnen weltweit. In diesem Beitrag wird die Rolle des Phänomens Schattenbibliothek bei der wissenschaftlichen Informationsversorgung in Deutschland untersucht, insbesondere im Hinblick auf regionale Verteilungen von Downloads, Zugriffszeiten, Zusammenhängen zwischen der Größe bestimmter Personengruppen (Bevölkerungszahl, Anzahl wissenschaftlicher Mitarbeitender an Hochschulen) und den Downloadzahlen eines Bundeslands sowie den Eigenschaften der angefragten Dokumente (Themen, Verlage, Publikationsalter beim Zugriff).
    Date
    1. 1.2020 13:22:34
  8. Metzendorf, M.-I.: ¬Ein Wiki als internes Wissensmanagementtool der Bibliothek : Vorbedingungen und Erfahrungen (2011) 0.03
    0.03155359 = product of:
      0.09466077 = sum of:
        0.09466077 = sum of:
          0.062863655 = weight(_text_:datenbanken in 163) [ClassicSimilarity], result of:
            0.062863655 = score(doc=163,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.27200446 = fieldWeight in 163, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.0390625 = fieldNorm(doc=163)
          0.03179711 = weight(_text_:22 in 163) [ClassicSimilarity], result of:
            0.03179711 = score(doc=163,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.19345059 = fieldWeight in 163, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=163)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Szenario klingt fast unheimlich: Etwas unbekanntes, sehr wertvolles befindet sich gleichzeitig an vielen geheimen Orten in der Bibliothek. Es ist nicht gerade wählerisch, was den Aufenthaltsort angeht: manchmal verbirgt es sich in Papierdokumenten, oft sucht es Schutz in Datenbanken, dann zieht es sich in einzelne Dateien zurück, und schließlich gedeiht es heimlich in den Köpfen. Angesichts aller Versuche, es zu fassen, erscheint es geradezu flüchtig (oder gar auf der Flucht?). Die Rede ist von Wissen. Was genau charakterisiert aber diese Ressource, von der alle reden und deren Gebrauch in der heutigen Zeit als zentral propagiert wird? "Wissen ist die Fähigkeit zum effektiven Handeln". Die Fähigkeit zum effektiven Handeln setzt beim Handelnden oftmals die Kenntnis von bestimmten Informationen voraus. Kann er an diese schnell gelangen und gelingt es ihm, sie an das vorhandene Wissen anzuknüpfen, handelt er effektiv. Wissen kann verschiedene Aggregatzustände einnehmen: Explizit ist Wissen, wenn es dokumentiert, ausgesprochen oder konkretisiert wurde und somit nicht mehr an den Menschen gebunden ist (genau genommen wird das Wissen hier also wieder in "Information" zurück gewandelt). Hingegen ist stilles Wissen nicht dokumentiert, lässt sich aber prinzipiell beschreiben und dokumentieren. Implizites Wissen ist schließlich Erfahrungswissen, das sich häufig nur verbal oder bildlich beschreiben lässt und deshalb meist an den Menschen gebunden bleibt.
    Source
    ¬Die Kraft der digitalen Unordnung: 32. Arbeits- und Fortbildungstagung der ASpB e. V., Sektion 5 im Deutschen Bibliotheksverband, 22.-25. September 2009 in der Universität Karlsruhe. Hrsg: Jadwiga Warmbrunn u.a
  9. Böll, S.K.: Informations- und bibliothekswissenschaftliche Zeitschriften in Literaturdatenbanken (2010) 0.02
    0.02074395 = product of:
      0.062231846 = sum of:
        0.062231846 = product of:
          0.12446369 = sum of:
            0.12446369 = weight(_text_:datenbanken in 3234) [ClassicSimilarity], result of:
              0.12446369 = score(doc=3234,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5385414 = fieldWeight in 3234, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3234)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Fachzeitschriften spielen für Wissenschaftler und Praktiker bei der Verbreitung von Forschungsergebnissen und Erfahrungsberichten eine wichtige Rolle. Der vorliegende Artikel gibt eine kurze Einführung in das Feld der Informetrie, um auf dieser Grundlage eine Zeitschriftenliste auf dem Gebiet der lnformations- und Bibliothekswissenschaft (luB) einzuführen. Durch Kombination von zehn verschiedenen Zeitschriftenlisten aus Datenbanken, die relevante Literatur auf dem Gebiet der luB erfassen, wird eine umfassende Liste von 1205 relevanten Fachzeitschriften erstellt. Anhand ihrer Erscheinungshäufigkeit wird die Bedeutung einzelner Zeitschriften für das Gebiet der luB eingeordnet, wobei vier verschiedene Kategorien von Zeitschriften unterschieden werden: fünfzehn Kernzeitschriften, 88 zentrale Zeitschriften, 173 selektive Zeitschriften und 672 Randzeitschriften. Betrachtet werden darüber hinaus auch Publikationssprache und geografische Verteilung der Zeitschriften sowie die Überschneidung von verschiedenen Datenbanken untereinander.
  10. Geiger, J.; Seubert, K.: Qualitätsbewertung von Online-Informationsressourcen (2011) 0.02
    0.02074395 = product of:
      0.062231846 = sum of:
        0.062231846 = product of:
          0.12446369 = sum of:
            0.12446369 = weight(_text_:datenbanken in 4906) [ClassicSimilarity], result of:
              0.12446369 = score(doc=4906,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5385414 = fieldWeight in 4906, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4906)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Studiengang "Information Science & Engineering" der Hochschule Darmstadt untersuchten vier Studenten des vierten Semesters in der Lehrveranstaltung "Qualitätsbewertung von Informationsressourcen", betreut von Prof. Dr. Heide Gloystein, die Qualität von Online-Informationsressourcen anhand von standardisierten Suchanfragen zu einem festgelegten Thema. Die Suchergebnisse werden nach einem vorher definierten Bewertungskatalog untersucht. Die beispielhaft ausgewählten Informationsressourcen teilen sich in folgende Kategorien ein: Internet/Web 1.0, Datenbanken, Web 2.0, sowie Bibliografische Datenbanken/OPAC. Die Fachdatenbanken schneiden hierbei erwartungsgemäß am Besten ab. Weniger professionelle Informationsquellen, wie Web 2.0-Anwendungen sind ungeeignet als fachliche Informationsressource. Das Endergebnis wird zusammengefasst in einer Matrix präsentiert, die die Stärken und Schwächen der einzelnen Ressourcen durch einheitliche Bewertungskriterien vergleichbar machen.
  11. Waschatz, B.: Schmökern ist schwierig : Viele Uni-Bibliotheken ordnen ihre Bücher nicht - Tipps für eine erfolgreiche Suche (2010) 0.02
    0.018932153 = product of:
      0.056796454 = sum of:
        0.056796454 = sum of:
          0.03771819 = weight(_text_:datenbanken in 3206) [ClassicSimilarity], result of:
            0.03771819 = score(doc=3206,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.16320267 = fieldWeight in 3206, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3206)
          0.019078264 = weight(_text_:22 in 3206) [ClassicSimilarity], result of:
            0.019078264 = score(doc=3206,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.116070345 = fieldWeight in 3206, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3206)
      0.33333334 = coord(1/3)
    
    Content
    "In einer öffentlichen Bücherei ist die Suche nach einem Werk recht einfach: Man geht einfach die Regale ab, bis man beim richtigen Buchstaben oder Thema angekommen ist. In vielen wissenschaftlichen Bibliotheken ist das komplizierter. Denn dort müssen sich Studenten durch Datenbanken und Zettelkataloge wühlen. "Eine Ausnahme ist der Lesesaal, erklärt Marlene Grau, Sprecherin der Staats- und Universitätsbibliothek in Hamburg. Im Lesesaal stehen die Bücher wie in einer öffentlichen Bibliothek in Reih und Glied nach Fachgebieten wie Jura, Biologie oder Medizin sortiert. So können Studenten ein wenig schmökern und querbeet lesen. Wer jedoch ein bestimmtes Werk sucht, nutzt besser gleich den Katalog der Bibliothek. Darin lässt sich zum einen nach dem Autor oder einem Titelstichwort suchen - in der Biologie etwa "Fliege" oder "Insekt". "Dann kann man hoffen, dass Bücher zum Thema das Stichwort im Titel enthalten", sagt Grau. Die andere Variante ist, nach einem Schlagwort zu suchen. Um das passende zu finden, kann man im Schlagwort-Index blättern. Oder man sucht nach einem bekannten Buch, das zum Thema passt. Dann kann man mit dessen Schlagwörtern weitersuchen. Der Vorteil: Bücher müssen dieses Schlagwort nicht im Titel enthalten. Buchtitel wie 'Keine Angst vor Zahlen' oder 'Grundkurs Rechnen' findet man über die Schlagworte 'Mathematik' und 'Einführung', aber mit Stichworten eher nicht", erklärt Ulrich Hohoff. Er leitet die Universitätsbibliothek in Augsburg.
    Date
    3. 5.1997 8:44:22
  12. Mensing, P.: Beispielhafter Vergleich und Analyse online verfügbarer digitaler Bilddatenbanken aus dem Bereich der Pomologie (2010) 0.02
    0.018147174 = product of:
      0.05444152 = sum of:
        0.05444152 = product of:
          0.10888304 = sum of:
            0.10888304 = weight(_text_:datenbanken in 3579) [ClassicSimilarity], result of:
              0.10888304 = score(doc=3579,freq=6.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.47112554 = fieldWeight in 3579, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3579)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Jahr 2007 hat die GWLB gemeinsam mit der HAAB, der Universitätsbibliothek Johann Christian Senckenberg und mehreren Stiftungen die Königliche Gartenbibliothek Herrenhausen erworben. Neben den textuellen Materialien enthält die Bibliothek auch viele nicht-textuelle Materialien wie Herbarien, Zeichnungen und auch Gouachen mit Abbildungen von Obstsorten aus der ehemaligen Obstbaumplantage. Nachdem in einem ebenfalls hier abgedruckten Aufsatz technische und inhaltliche Aspekte, die bei der Planung und Durchführung von Digitalisierungsprojekten von nicht-textuellen Materialien zu beachten sind, erläutert wurden, sollen im Folgenden konkrete Beispiele unterschiedlicher Präsentationen digitaler Bildbestände besprochen werden. Das Canadian Heritage Information Network bietet als Grundlage für die Beurteilung von Bilddatenbanken eine 37 Seiten umfassende Word-Datei zu Abklärung aller möglichen Anforderungen (bspw. Inventarisierung, Ausleihe, verschiedene Suchoptionen, Urheberrecht, Langzeitarchivierung, Kostenrechnung für Druckaufträge usw.) an eine Bilddatenbank an . Diese Liste ist ursprünglich für den Museumsbereich zusammengestellt worden und darum für den Bibliotheksbereich nur teilweise übertragbar. Die folgenden Beispiele wurden daher nach eigenen Kriterien miteinander verglichen, um zu analysieren, welche Angebote bzw. Bestandteile dieser Angebote als Anregung für die Präsentation nicht-textueller Materialien wie den Gouachen der Königlichen Gartenbibliothek dienen könnten. Hierbei wurden die Punkte Erschließung, Sicherung, Digitalisierung, Metadaten und Präsentation betrachtet. Nach einer umfassenden Recherche wurden von der Fülle der unterschiedlichen Internetpräsentationen insgesamt 14 verschiedene Angebote ausgewählt. Zur Verbesserung der Übersichtlichkeit wurden die Datenbanken thematisch zusammengefasst (allgemeine Portale, pomologische und botanische Datenbanken, sowie andere Themenbereiche). Auf den folgenden Seiten werden einige der untersuchten Datenbanken kurz vorgestellt.
  13. Birkner, M.: Patentdatenbanken: kostenpflichtige mit Mehrwert oder kostenfreie? (2010) 0.02
    0.017780527 = product of:
      0.05334158 = sum of:
        0.05334158 = product of:
          0.10668316 = sum of:
            0.10668316 = weight(_text_:datenbanken in 3641) [ClassicSimilarity], result of:
              0.10668316 = score(doc=3641,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46160686 = fieldWeight in 3641, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3641)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Seit einigen Jahren sind Patentinformationen auch zunehmend durch Datenbanken von Patentämtern sowie Patentsuchmaschinen kostenfrei im Web verfügbar. Diese Angebote stellen eine wachsende Konkurrenz für die kommerziellen Datenbankhersteller und -anbieter dar. Oft ist jedoch nicht bekannt, welche umfangreichen Möglichkeiten die kostenpflichtigen Datenbanken bieten und welche erheblichen Einschränkungen bei den kostenfreien Quellen zu beachten sind. In diesem Artikel werden daher der Leistungsumfang von kostenfreien Patentdatenbanken und die Mehrwerte von kostenpflichtigen Patentdatenbanken im Überblick vorgestellt. Für effektive und effiziente Recherchen eignen sich Retrievalsprachen in einer standardisierten Host-Umgebung. Hochwertige Mehrwertdatenbanken zeichnen sich vor allem durch qualitativ verbesserte Daten und zusätzliche Indexierungen aus. Wenn sie bei Patentrecherchen durch Primärdatenbanken ergänzt werden und beide eine höchstmögliche Abdeckung aufweisen, sind verlässliche und vollständig Trefferlisten möglich. Auch für den weiteren Bearbeitungsprozess stehen bei kommerziellen Anbietern zahlreiche unterstützende Funktionen, Programme und eine Kundenbetreuung zur Verfügung.
  14. Hunger, M.; Neubauer, P.: ¬Die vernetzte Welt : Abfragesprachen für Graphendatenbanken (2013) 0.02
    0.017780527 = product of:
      0.05334158 = sum of:
        0.05334158 = product of:
          0.10668316 = sum of:
            0.10668316 = weight(_text_:datenbanken in 1101) [ClassicSimilarity], result of:
              0.10668316 = score(doc=1101,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46160686 = fieldWeight in 1101, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1101)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Graphendatenbanken sind darauf optimiert, stark miteinander vernetzte Informationen effizient zu speichern und greifbar zu machen. Welchen Ansprüchen müssen Abfragesprachen genügen, damit sie für die Arbeit mit diesen Datenbanken geeignet sind? Bei der Aufarbeitung realer Informationen zeigt sich, dass ein hoher, aber unterschätzter Wert in den Beziehungen zwischen Elementen steckt. Seien es Ereignisse aus Geschichte und Politik, Personen in realen und virtuellen sozialen Netzen, Proteine und Gene, Abhängigkeiten in Märkten und Ökonomien oder Rechnernetze, Computer, Software und Anwender - alles ist miteinander verbunden. Der Graph ist ein Datenmodell, das solche Verbindungsgeflechte abbilden kann. Leider lässt sich das Modell mit relationalen und Aggregat-orientierten NoSQL-Datenbanken ab einer gewissen Komplexität jedoch schwer handhaben. Graphendatenbanken sind dagegen darauf optimiert, solche stark miteinander vernetzten Informationen effizient zu speichern und greifbar zu machen. Auch komplexe Fragen lassen sich durch ausgefeilte Abfragen schnell beantworten. Hierbei kommt es auf die geeignete Abfragesprache an.
  15. Friedländer, M.B.: Informationswissenschaft an deutschsprachigen Universitäten : eine komparative informetrische Analyse (2014) 0.02
    0.017780527 = product of:
      0.05334158 = sum of:
        0.05334158 = product of:
          0.10668316 = sum of:
            0.10668316 = weight(_text_:datenbanken in 1267) [ClassicSimilarity], result of:
              0.10668316 = score(doc=1267,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46160686 = fieldWeight in 1267, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1267)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Untersucht wurden die Institute für Informationswissenschaft folgender Universitäten: Humboldt-Universität zu Berlin, Heinrich-Heine-Universität Düsseldorf, Karl-Franzens- Universität Graz, Universität Hildesheim und Universität Regensburg. Für die Erhebung der Messdaten dienten die Publikationslisten aller Mitarbeiter, die an den Instituten tätig waren. Für den Zeitraum von 2003 bis einschließlich 2012 wurden über 1.000 Publikationen ermittelt. Indikatoren der szientometrischen Analyse sind die Anzahl der Publikationen, der Dokumenttyp, der Abdeckungsgrad in Fachdatenbanken, die Zitationen und der h-Index. Ausgewählte Fachdatenbanken sind Web of Science, Scopus, Google Scholar, Mendeley, CiteULike und BibSonomy. Auftretende Fehler in den Datenbanken sind genau dokumentiert und Gegenstand der Auswertung. Anhand der erhobenen Werte werden die betrachteten Institute in Relation zueinander gesetzt. Der Vergleich bezieht sich auf den Abdeckungsgrad in den zur Recherche verwendeten Datenbanken, die Produktivität sowie den wissenschaftlichen Einfluss der jeweiligen Institute.
  16. Tüür-Fröhlich, T.: ¬Eine "autoritative" Datenbank auf dem Prüfstand : der Social Sciences Citation Index (SSCI) und seine Datenqualität (2018) 0.02
    0.017780527 = product of:
      0.05334158 = sum of:
        0.05334158 = product of:
          0.10668316 = sum of:
            0.10668316 = weight(_text_:datenbanken in 4591) [ClassicSimilarity], result of:
              0.10668316 = score(doc=4591,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46160686 = fieldWeight in 4591, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4591)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Zitatdatenbanken bilden die Datengrundlagen für zahlreiche szientometrische Untersuchungen, Evaluationen wissenschaftlicher Leistungen und Uni-Rankings. In der Literatur finden sich kaum Hinweise auf endogene Fehler (Original richtig, Datenbankeintrag falsch) in den kostenpflichtigen Datenbanken. Banale Fehler (z. B. Falschschreibung der Namen von Autorinnen oder Autoren) in Datenbanken hätten nur geringe Relevanz. Die Fehlersuche zu Pierre Bourdieu als "cited author" im SSCI (Vergleich Original - SSCI-Record) ergab mehr als 85 Mutationen. Die Fallstudien zeigen eine hohe Anzahl endogener Datenbankfehler. In den Rechtswissenschaften übliche Referenzen in Fußnoten laufen große Gefahr, in Phantomreferenzen verwandelt zu werden (Fallstudie Harvard Law Review: 99 Prozent Fehler). Dem Anspruch des SSCI, die "relevanten" globalen Sozialwissenschaften abzubilden - für alle im SSCI erfassten Disziplinen -, stehen offenbar Mängel in Datenerfassung und -verarbeitung im Wege.
  17. Plieninger, J.: Tools für das Monitoring (2011) 0.02
    0.016763642 = product of:
      0.050290924 = sum of:
        0.050290924 = product of:
          0.10058185 = sum of:
            0.10058185 = weight(_text_:datenbanken in 2832) [ClassicSimilarity], result of:
              0.10058185 = score(doc=2832,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.43520713 = fieldWeight in 2832, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2832)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Monitoring ist zeitsparend, weil man Webseiten und Datenbanken nicht immer erneut aufsuchen muss, um Aktualisierungen zur Kenntnis zu nehmen, sondern diese geliefert bekommt. Der Beitrag behandelt die verschiedenen Möglichkeiten, Alerts mithilfe von kostenlosen Tools einzurichten, sodass man eine Vielzahl von Quellen beobachten kann. Weiter werden Möglichkeiten des Zusammenfassens, Filterns und Auswertens behandelt.
  18. Nowag, B.: Query by Humming : ein Vergleich von Suchmaschinen zur Melodie-Erkennung (2010) 0.02
    0.016763642 = product of:
      0.050290924 = sum of:
        0.050290924 = product of:
          0.10058185 = sum of:
            0.10058185 = weight(_text_:datenbanken in 3506) [ClassicSimilarity], result of:
              0.10058185 = score(doc=3506,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.43520713 = fieldWeight in 3506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3506)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Internet häufen sich Anbieter von Suchmaschinen, die gesungene, gesummte oder gepfiffene Suchanfragen verarbeiten, mit Datenbanken abgleichen und auf diesem Wege zu dem gewünschten Musik-Titel führen sollen. Zwei dieser Suchmaschinen (MusicLine und MiDoMi) werden vorgestellt und einem Praxis-Test unterzogen, um die Vor- und Nachteile beider Systeme hervorzuheben.
  19. Nagelschmidt, M.: Literaturverwaltungsprogramme : das funktionale Minimum (2010) 0.02
    0.016763642 = product of:
      0.050290924 = sum of:
        0.050290924 = product of:
          0.10058185 = sum of:
            0.10058185 = weight(_text_:datenbanken in 4208) [ClassicSimilarity], result of:
              0.10058185 = score(doc=4208,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.43520713 = fieldWeight in 4208, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4208)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Mit der zunehmenden Verfügbarkeit bibliografischer Daten wird auch die Verwendung von Literaturverwaltungsprogrammen immer interessanter. Viele Bibliotheken bieten in ihren Katalogen mittlerweile entsprechende Schnittstellen an, die einen direkten Import der Bestandsdaten der Bibliothek in die Literaturverwaltung des Nutzers ermöglichen. Dabei muss jedoch streng differenziert werden zwischen solchen Programmen zum Aufbau individueller Literatursammlungen und solchen, zum Aufbau und zur Pflege institutionell betriebener Datenbanken. Im Beitrag werden die Leistungsmerkmale einer idealtypischen Literaturverwaltung im Sinne eines Produktivitätswerkzeuges beschrieben und anschließend von den Merkmalen professioneller bibliografischer Software abgegrenzt.
  20. Wieser, M.; Stern-Erlebach, G.: Einsatz von Primo an der Universitäts- und Landesbibliothek Tirol (2011) 0.02
    0.016763642 = product of:
      0.050290924 = sum of:
        0.050290924 = product of:
          0.10058185 = sum of:
            0.10058185 = weight(_text_:datenbanken in 145) [ClassicSimilarity], result of:
              0.10058185 = score(doc=145,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.43520713 = fieldWeight in 145, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0625 = fieldNorm(doc=145)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Universitäts- und Landesbibliothek Tirol implementierte die auf Suchmaschinentechnologie basierende Software der Firma ExLibris "PRIMO" für eine effiziente integrierte Recherche in den Beständen der Bibliothek inklusive der lizenzierten Volltexten (teilw. mit deren Inhalten) und Datenbanken.

Authors

Languages

  • e 431
  • d 182
  • a 1
  • More… Less…

Types

Themes