Search (134 results, page 1 of 7)

  • × language_ss:"d"
  • × type_ss:"a"
  • × type_ss:"el"
  1. Schirrmeister, N.-P.; Keil, S.: Aufbau einer Infrastruktur für Information Retrieval-Evaluationen (2012) 0.02
    0.017319243 = product of:
      0.08082313 = sum of:
        0.021511177 = weight(_text_:system in 3097) [ClassicSimilarity], result of:
          0.021511177 = score(doc=3097,freq=2.0), product of:
            0.07727166 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.02453417 = queryNorm
            0.27838376 = fieldWeight in 3097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
        0.014943148 = weight(_text_:information in 3097) [ClassicSimilarity], result of:
          0.014943148 = score(doc=3097,freq=10.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.3469568 = fieldWeight in 3097, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
        0.044368807 = weight(_text_:retrieval in 3097) [ClassicSimilarity], result of:
          0.044368807 = score(doc=3097,freq=10.0), product of:
            0.07421378 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02453417 = queryNorm
            0.59785134 = fieldWeight in 3097, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
      0.21428572 = coord(3/14)
    
    Abstract
    Das Projekt "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE) bietet eine Softwareinfrastruktur zur Unterstützung von Information Retrieval-Evaluationen (IR-Evaluationen). Die Infrastruktur basiert auf einem Tool-Kit, das bei GESIS im Rahmen des DFG-Projekts IRM entwickelt wurde. Ziel ist es, ein System zu bieten, das zur Forschung und Lehre am Fachbereich Media für IR-Evaluationen genutzt werden kann. This paper describes some aspects of a project called "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE). Its goal is to build a software-infrastructure which supports the evaluation of information retrieval algorithms.
  2. Bach, N.: ¬Die nächste PID-Evolution : selbstsouverän, datenschutzfreundlich, dezentral (2021) 0.01
    0.007914054 = product of:
      0.055398375 = sum of:
        0.013444485 = weight(_text_:system in 539) [ClassicSimilarity], result of:
          0.013444485 = score(doc=539,freq=2.0), product of:
            0.07727166 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.02453417 = queryNorm
            0.17398985 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
        0.041953888 = product of:
          0.083907776 = sum of:
            0.083907776 = weight(_text_:datenmodell in 539) [ClassicSimilarity], result of:
              0.083907776 = score(doc=539,freq=2.0), product of:
                0.19304088 = queryWeight, product of:
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.02453417 = queryNorm
                0.43466327 = fieldWeight in 539, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=539)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Dieser Beitrag behandelt den zuletzt vom W3C hervorgebrachten Standard für dezentrale Identi­fikatoren (Decentralized Identifiers, kurz: DIDs) in Bezug auf den Bereich des Forschungsdatenmanagements. Es wird dargelegt, dass die aktuell im wissenschaftlichen Publikationswesen häufig verwendeten persistenten Identifikatorensysteme (Persistent Identifiers, PIDs) wie Handle, DOI, ORCID und ROR aufgrund ihrer Zentralisierung fundamentale Probleme hinsichtlich der Daten­sicherheit, dem Datenschutz und bei der Sicherstellung der Datenintegrität aufweisen. Dem werden als mögliche Lösung das System der DIDs gegenübergestellt: eine neuartige Form von weltweit eindeutigen Identifikatoren, die durch jedes Individuum oder jede Organisation selbst generiert und auf jeder als vertrauenswürdig erachteten Plattform betrieben werden können. Blockchains oder andere Distributed-Legder-Technologien können dabei als vertrauenswürdige Datenregister fungieren, aber auch direkte Peer-to-Peer-Verbindungen, auf bestehende Internetprotokolle aufsetzende Methoden oder statische DIDs sind möglich. Neben dem Schema wird die technische Spezifikation im Sinne von Datenmodell und die Anwendung von DIDs erläutert sowie im Vergleich die Unterschiede zu zentralisierten PID-Systemen herausgestellt. Zuletzt wird der Zusammenhang mit dem zugrundeliegenden neuen Paradigma einer dezentralen Identität, der Self-Sovereign Identity, hergestellt. SSI repräsentiert ein gesamtes Ökosystem, in dem Entitäten ein kryptografisch gesichertes Vertrauensnetzwerk auf der Basis von DIDs und digitalen Identitätsnachweisen bilden, um dezentral manipulationsgesichert und datenschutzgerecht identitätsbezogene Daten auszutauschen. Zum Schluss der Abhandlung stellt der Autor fünf zuvor herausgearbeitete Anforderungen in Bezug auf eine zeitgemäße Umsetzung von persistenten Identifikatoren vor.
  3. Strecker, D.: Dataset Retrieval : Informationsverhalten von Datensuchenden und das Ökosystem von Data-Retrieval-Systemen (2022) 0.01
    0.007293084 = product of:
      0.051051587 = sum of:
        0.006682779 = weight(_text_:information in 4021) [ClassicSimilarity], result of:
          0.006682779 = score(doc=4021,freq=2.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.1551638 = fieldWeight in 4021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=4021)
        0.044368807 = weight(_text_:retrieval in 4021) [ClassicSimilarity], result of:
          0.044368807 = score(doc=4021,freq=10.0), product of:
            0.07421378 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02453417 = queryNorm
            0.59785134 = fieldWeight in 4021, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=4021)
      0.14285715 = coord(2/14)
    
    Abstract
    Verschiedene Stakeholder fordern eine bessere Verfügbarkeit von Forschungsdaten. Der Erfolg dieser Initiativen hängt wesentlich von einer guten Auffindbarkeit der publizierten Datensätze ab, weshalb Dataset Retrieval an Bedeutung gewinnt. Dataset Retrieval ist eine Sonderform von Information Retrieval, die sich mit dem Auffinden von Datensätzen befasst. Dieser Beitrag fasst aktuelle Forschungsergebnisse über das Informationsverhalten von Datensuchenden zusammen. Anschließend werden beispielhaft zwei Suchdienste verschiedener Ausrichtung vorgestellt und verglichen. Um darzulegen, wie diese Dienste ineinandergreifen, werden inhaltliche Überschneidungen von Datenbeständen genutzt, um den Metadatenaustausch zu analysieren.
  4. Keßler, K.; Krüger, A.T.; Ghammad, Y.; Wulle, S.; Balke, W.-T.; Stump, K.: PubPharm - Der Fachinformationsdienst Pharmazie (2016) 0.01
    0.0064334315 = product of:
      0.03002268 = sum of:
        0.013444485 = weight(_text_:system in 3133) [ClassicSimilarity], result of:
          0.013444485 = score(doc=3133,freq=2.0), product of:
            0.07727166 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.02453417 = queryNorm
            0.17398985 = fieldWeight in 3133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3133)
        0.004176737 = weight(_text_:information in 3133) [ClassicSimilarity], result of:
          0.004176737 = score(doc=3133,freq=2.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.09697737 = fieldWeight in 3133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3133)
        0.012401459 = weight(_text_:retrieval in 3133) [ClassicSimilarity], result of:
          0.012401459 = score(doc=3133,freq=2.0), product of:
            0.07421378 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02453417 = queryNorm
            0.16710453 = fieldWeight in 3133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3133)
      0.21428572 = coord(3/14)
    
    Abstract
    Der Fachinformationsdienst (FID) Pharmazie verfolgt das Ziel, die Informationsinfrastruktur und die Literaturversorgung für die pharmazeutische Hochschulforschung nachhaltig zu verbessern. Das Projekt wird seit dem 1. Januar 2015 von der Deutschen Forschungsgemeinschaft gefördert. Eine Besonderheit stellt die Kooperation zwischen der Universitätsbibliothek Braunschweig und dem Institut für Informationssysteme (IfIS) der TU Braunschweig dar, wodurch aktuelle Forschung auf dem Gebiet der Informatik in die Implementierung innovativer FID-Dienste mündet. Im Zentrum des Projektes steht der nutzerzentrierte Aufbau einer erweiterbaren und personalisierbaren Informationsinfrastruktur. Das vom FID entwickelte Discovery System "PubPharm" zur pharmaziespezifischen Recherche basiert, als Weiterentwicklung des beluga-Systems der SUB Hamburg, auf der Open Source Software VuFind. Als Datengrundlage enthält es u.a. die Medline Daten, erweitert durch Normdaten, die unter anderem die Suche nach chemischen Strukturen erlauben. Gleichzeitig werden vom Institut für Informationssysteme innovative Suchmöglichkeiten basierend auf Narrativer Intelligenz untersucht und perspektivisch in das Retrieval des Discovery Systems eingebunden. Im Rahmen von sog. FID-Lizenzen bietet der FID Pharmazie Wissenschaftlern/innen Volltextzugriff auf pharmazeutische Fachzeitschriften. Bestandteil der Lizenzen ist das Recht zur Langzeitarchivierung. Bei deren technischer Umsetzung kooperiert der FID mit der TIB Hannover. Der FID Pharmazie koppelt seine Aktivitäten eng an die pharmazeutische Fachcommunity: unter anderem begleitet ein Fachbeirat die Entwicklungen. Im Rahmen der Öffentlichkeitsarbeit werden Nutzer/innen umfassend über die Angebote informiert, u.a. in Webcasts und im PubPharm Blog.
    Theme
    Information Gateway
  5. Weisbrod, D.: Pflichtablieferung von Dissertationen mit Forschungsdaten an die DNB : Anlagerungsformen und Datenmodell (2018) 0.01
    0.0062285378 = product of:
      0.087199524 = sum of:
        0.087199524 = product of:
          0.17439905 = sum of:
            0.17439905 = weight(_text_:datenmodell in 4352) [ClassicSimilarity], result of:
              0.17439905 = score(doc=4352,freq=6.0), product of:
                0.19304088 = queryWeight, product of:
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.02453417 = queryNorm
                0.9034307 = fieldWeight in 4352, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4352)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    Abstract
    Im Rahmen des DFG-Projektes "Elektronische Dissertationen Plus" (eDissPlus) entwickeln die Humboldt-Universität zu Berlin (HU) und die Deutsche Nationalbibliothek (DNB) Lösungen für eine zeitgemäße Archivierung und Publikation von Forschungsdaten, die im Zusammenhang mit Promotionsvorhaben entstehen. Dabei müssen die unterschiedlichen Anlagerungsformen von Forschungsdaten an eine Dissertation berücksichtigt und in einem Datenmodell abgebildet sowie das von der DNB verwendete Metadatenschema XMetaDissPlus überarbeitet werden. Das ist notwendig, um die Relationen zwischen der Dissertation und den abgelieferten Forschungsdaten-Supplementen sowie den Daten, die auf externen Repositorien verbleiben sollen, nachzuweisen und im Katalog der DNB recherchierbar zu machen. Dieser Beitrag stellt das Datenmodell und die Änderungen im Metadatenschema vor.
  6. Bauckhage, C.: Marginalizing over the PageRank damping factor (2014) 0.00
    0.0047366275 = product of:
      0.03315639 = sum of:
        0.008353474 = weight(_text_:information in 928) [ClassicSimilarity], result of:
          0.008353474 = score(doc=928,freq=2.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.19395474 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=928)
        0.024802918 = weight(_text_:retrieval in 928) [ClassicSimilarity], result of:
          0.024802918 = score(doc=928,freq=2.0), product of:
            0.07421378 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02453417 = queryNorm
            0.33420905 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=928)
      0.14285715 = coord(2/14)
    
    Abstract
    In this note, we show how to marginalize over the damping parameter of the PageRank equation so as to obtain a parameter-free version known as TotalRank. Our discussion is meant as a reference and intended to provide a guided tour towards an interesting result that has applications in information retrieval and classification.
  7. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.00
    0.0042665657 = product of:
      0.01991064 = sum of:
        0.0033413896 = weight(_text_:information in 3284) [ClassicSimilarity], result of:
          0.0033413896 = score(doc=3284,freq=2.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.0775819 = fieldWeight in 3284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.009921167 = weight(_text_:retrieval in 3284) [ClassicSimilarity], result of:
          0.009921167 = score(doc=3284,freq=2.0), product of:
            0.07421378 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02453417 = queryNorm
            0.13368362 = fieldWeight in 3284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.0066480828 = product of:
          0.0132961655 = sum of:
            0.0132961655 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.0132961655 = score(doc=3284,freq=2.0), product of:
                0.085914485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02453417 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
    Date
    22. 1.2010 14:41:24
  8. Hunger, M.; Neubauer, P.: ¬Die vernetzte Welt : Abfragesprachen für Graphendatenbanken (2013) 0.00
    0.0035960476 = product of:
      0.050344665 = sum of:
        0.050344665 = product of:
          0.10068933 = sum of:
            0.10068933 = weight(_text_:datenmodell in 1101) [ClassicSimilarity], result of:
              0.10068933 = score(doc=1101,freq=2.0), product of:
                0.19304088 = queryWeight, product of:
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.02453417 = queryNorm
                0.5215959 = fieldWeight in 1101, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1101)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    Abstract
    Graphendatenbanken sind darauf optimiert, stark miteinander vernetzte Informationen effizient zu speichern und greifbar zu machen. Welchen Ansprüchen müssen Abfragesprachen genügen, damit sie für die Arbeit mit diesen Datenbanken geeignet sind? Bei der Aufarbeitung realer Informationen zeigt sich, dass ein hoher, aber unterschätzter Wert in den Beziehungen zwischen Elementen steckt. Seien es Ereignisse aus Geschichte und Politik, Personen in realen und virtuellen sozialen Netzen, Proteine und Gene, Abhängigkeiten in Märkten und Ökonomien oder Rechnernetze, Computer, Software und Anwender - alles ist miteinander verbunden. Der Graph ist ein Datenmodell, das solche Verbindungsgeflechte abbilden kann. Leider lässt sich das Modell mit relationalen und Aggregat-orientierten NoSQL-Datenbanken ab einer gewissen Komplexität jedoch schwer handhaben. Graphendatenbanken sind dagegen darauf optimiert, solche stark miteinander vernetzten Informationen effizient zu speichern und greifbar zu machen. Auch komplexe Fragen lassen sich durch ausgefeilte Abfragen schnell beantworten. Hierbei kommt es auf die geeignete Abfragesprache an.
  9. Knoll, A.: Kompetenzprofil von Information Professionals in Unternehmen (2016) 0.00
    0.0033189792 = product of:
      0.023232853 = sum of:
        0.013260729 = weight(_text_:information in 3069) [ClassicSimilarity], result of:
          0.013260729 = score(doc=3069,freq=14.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.3078936 = fieldWeight in 3069, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.009972124 = product of:
          0.019944249 = sum of:
            0.019944249 = weight(_text_:22 in 3069) [ClassicSimilarity], result of:
              0.019944249 = score(doc=3069,freq=2.0), product of:
                0.085914485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02453417 = queryNorm
                0.23214069 = fieldWeight in 3069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3069)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Zielsetzung - Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der vorliegenden Arbeit eine Begriffsbestimmung unternommen. Methode - Mit Hilfe dreier Methoden - einer Auswertung von relevanter Fachliteratur, der Untersuchung von einschlägigen Stellenausschreibungen und dem Führen von Experteninterviews - wird ein Kompetenzprofil für Information Professionals erstellt. Ergebnisse - Die 16 wichtigsten Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen sind IT-Kenntnisse, Sprachkenntnisse, Quellenkenntnisse, Recherchekenntnisse, Projektmanagement, Darstellungskompetenz, Problemlösungskompetenz, selbständiges Arbeiten, Kommunikationsfähigkeit, Teamfähigkeit, Servicementalität, Interkulturelle Kompetenz, Analytische Fähigkeiten, Eigenmarketing, Veränderungsbereitschaft und Stressresistenz. Schlussfolgerung - Die Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst. Ein Kompetenzrad kann als Visualisierung dienen.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1324/1234. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Lamparter, Anna: Kompetenzprofil für Information Professionals in Unternehmen. Masterarbeit (M.A.), Hochschule Hannover, 2015. Volltext: https://serwiss.bib.hs-hannover.de/frontdoor/index/index/docId/528 Vgl. auch: (geb. Lamparter): Kompetenzprofil von Information Professionals in Unternehmen. In:
    Date
    28. 7.2016 16:22:54
    Source
    Young information scientists. 1(2016), S.1-11
  10. Mielke, B.: Wider einige gängige Ansichten zur juristischen Informationserschließung (2002) 0.00
    0.003317363 = product of:
      0.023221541 = sum of:
        0.016133383 = weight(_text_:system in 2145) [ClassicSimilarity], result of:
          0.016133383 = score(doc=2145,freq=2.0), product of:
            0.07727166 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.02453417 = queryNorm
            0.20878783 = fieldWeight in 2145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
        0.0070881573 = weight(_text_:information in 2145) [ClassicSimilarity], result of:
          0.0070881573 = score(doc=2145,freq=4.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.16457605 = fieldWeight in 2145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2145)
      0.14285715 = coord(2/14)
    
    Abstract
    Ausgehend von einer Betrachtung in der Rechtsinformatik geläufiger Annahmen zur juristischen Informationserschließung beschreibt der Beitrag wesentliche Ergebnisse einer empirischen Studie der Retrievaleffektivität von Re-cherchen in juristischen Datenbanken. Dabei steht die Frage nach der Notwendigkeit einer intellektuellen Erschließung einerseits, der Effektivität der sogenannten Stichwortsuche andererseits im Mittelpunkt. Die Ergebnisse der Studie, bei der auch ein Vergleich zwischen einem Informationssystem auf der Basis eines Booleschen Retrievalmodells mit einem System auf der Basis statistischer Verfahren vorgenommen wurde, legen den Schluss nahe, dass in der rechtsinformatischen Fachliteratur analytisch begründete Annahmen wie die Gefahr zu großer Antwortmengen bei der Stichwortsuche empirisch nicht zu belegen sind. Auch zeigt sich keine Überlegenheit intellektueller Erschließungsverfahren (Beschlagwortung) gegenüber der automatischen Indexierung, im Gegenteil führt der Einsatz eines statistischen Verfahrens bei identischer Dokumentkollektion zu einer höheren Wiedergewinnungsrate (recall).
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  11. Bünte, O.: Bundesdatenschutzbeauftragte bezweifelt Facebooks Datenschutzversprechen (2018) 0.00
    0.0031077985 = product of:
      0.021754589 = sum of:
        0.013444485 = weight(_text_:system in 4180) [ClassicSimilarity], result of:
          0.013444485 = score(doc=4180,freq=2.0), product of:
            0.07727166 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.02453417 = queryNorm
            0.17398985 = fieldWeight in 4180, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4180)
        0.008310104 = product of:
          0.016620208 = sum of:
            0.016620208 = weight(_text_:22 in 4180) [ClassicSimilarity], result of:
              0.016620208 = score(doc=4180,freq=2.0), product of:
                0.085914485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02453417 = queryNorm
                0.19345059 = fieldWeight in 4180, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4180)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Date
    23. 3.2018 13:41:22
    Footnote
    Vgl. zum Hintergrund auch: https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election; https://www.nytimes.com/2018/03/18/us/cambridge-analytica-facebook-privacy-data.html; http://www.latimes.com/business/la-fi-tn-facebook-cambridge-analytica-sued-20180321-story.html; https://www.tagesschau.de/wirtschaft/facebook-cambridge-analytica-103.html; http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html; http://www.spiegel.de/netzwelt/netzpolitik/cambridge-analytica-facebook-sieht-sich-im-datenskandal-als-opfer-a-1199095.html; https://www.heise.de/newsticker/meldung/Datenskandal-um-Cambridge-Analytica-Facebook-sieht-sich-als-Opfer-3999922.html.
  12. Pielmeier, S.; Voß, V.; Carstensen, H.; Kahl, B.: Online-Workshop "Computerunterstützte Inhaltserschließung" 2020 (2021) 0.00
    0.003020781 = product of:
      0.021145467 = sum of:
        0.016133383 = weight(_text_:system in 4409) [ClassicSimilarity], result of:
          0.016133383 = score(doc=4409,freq=2.0), product of:
            0.07727166 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.02453417 = queryNorm
            0.20878783 = fieldWeight in 4409, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.046875 = fieldNorm(doc=4409)
        0.0050120843 = weight(_text_:information in 4409) [ClassicSimilarity], result of:
          0.0050120843 = score(doc=4409,freq=2.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.116372846 = fieldWeight in 4409, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4409)
      0.14285715 = coord(2/14)
    
    Abstract
    Zum ersten Mal in digitaler Form und mit 230 Teilnehmer*innen fand am 11. und 12. November 2020 der 4. Workshop "Computerunterstützte Inhaltserschließung" statt, organisiert von der Deutschen Nationalbibliothek (DNB), der Firma Eurospider Information Technology, der Staatsbibliothek zu Berlin - Preußischer Kulturbesitz (SBB), der UB Stuttgart und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Im Mittelpunkt stand der "Digitale Assistent DA-3": In elf Vorträgen wurden Anwendungsszenarien und Erfahrungen mit dem System vorgestellt, das Bibliotheken und andere Wissenschafts- und Kultureinrichtungen bei der Inhaltserschließung unterstützen soll. Die Begrüßung und Einführung in die beiden Workshop-Tage übernahm Frank Scholze (Generaldirektor der DNB). Er sieht den DA-3 als Baustein für die Verzahnung der intellektuellen und der maschinellen Erschließung.
  13. Umstätter, W.: Zukunft der Informationswissenschaft : Vom Information Retrieval zur Wissensorganisation (2017) 0.00
    0.0029649907 = product of:
      0.020754933 = sum of:
        0.008353474 = weight(_text_:information in 3889) [ClassicSimilarity], result of:
          0.008353474 = score(doc=3889,freq=8.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.19395474 = fieldWeight in 3889, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3889)
        0.012401459 = weight(_text_:retrieval in 3889) [ClassicSimilarity], result of:
          0.012401459 = score(doc=3889,freq=2.0), product of:
            0.07421378 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02453417 = queryNorm
            0.16710453 = fieldWeight in 3889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3889)
      0.14285715 = coord(2/14)
    
    Abstract
    Fortsetzung der Beiträge von Bredemeier, Stock, Schlögl in Open Password im Anschluss an die ISI-Tagung 2017. "Immer schon war es Aufgabe der Wissenschaft, aus ihren neusten Erkenntnissen heraus auch Anregungen für die Praxis zu geben. Trotzdem ist es ein großer Unterschied, ob jemand als Informationswissenschaftler seine Arbeitszeit und seine gesamte Kraft für das Gewinnen neuer Erkenntnisse einsetzt oder ob ein Informationsspezialist seine Informationskompetenz an Endnutzer vermarktet. Es gibt in der Szientometrie Hinweise, dass man Wissenschaft nur sehr schwer beschleunigen bzw. abbremsen kann. Bei Zusatzgeldern zur Beschleunigung wachsen die neu auftauchenden Probleme exponentiell an, und bei Sparmaßnahmen werden die bereits vorhandenen Probleme so erdrückend, dass Wirtschaft und Politik gezwungen werden, wieder in die Wissenschaft zu investieren. Das gilt auch für die Zukunft der Informationswissenschaft, die sozusagen autokatalytisch ihre anstehenden Probleme bewältigen muss. Wissenschaftler müssen allerdings oft etliche Irrwege gehen, bis sie die richtige Chreode, wie das in der Epigenese genannt wird, finden. Dabei streiten nicht nur die Wissenschaftler über die richtigen Ansätze zur Lösung anstehender Probleme, sondern auch die praxisorientierten Information Professionals sind verständlicherweise über die einander widersprechenden Argumentationen unter Informationswissenschaftlern irritiert. Es sei hier nur an die Definition Rainer Kuhlens "Information ist Wissen in Aktion" erinnert, der sich auch Christian Schlögl und Wolfgang G. Stock anschließen. Dem kann man sich allerdings nicht anschließen, wenn man Information nicht als Teilmenge von Wissen versteht."
  14. Freyberg, L.: ¬Die Lesbarkeit der Welt : Rezension zu 'The Concept of Information in Library and Information Science. A Field in Search of Its Boundaries: 8 Short Comments Concerning Information'. In: Cybernetics and Human Knowing. Vol. 22 (2015), 1, 57-80. Kurzartikel von Luciano Floridi, Søren Brier, Torkild Thellefsen, Martin Thellefsen, Bent Sørensen, Birger Hjørland, Brenda Dervin, Ken Herold, Per Hasle und Michael Buckland (2016) 0.00
    0.002735774 = product of:
      0.019150417 = sum of:
        0.012502335 = weight(_text_:information in 3335) [ClassicSimilarity], result of:
          0.012502335 = score(doc=3335,freq=28.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.29028487 = fieldWeight in 3335, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3335)
        0.0066480828 = product of:
          0.0132961655 = sum of:
            0.0132961655 = weight(_text_:22 in 3335) [ClassicSimilarity], result of:
              0.0132961655 = score(doc=3335,freq=2.0), product of:
                0.085914485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02453417 = queryNorm
                0.15476047 = fieldWeight in 3335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3335)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Es ist wieder an der Zeit den Begriff "Information" zu aktualisieren beziehungsweise einen Bericht zum Status Quo zu liefern. Information ist der zentrale Gegenstand der Informationswissenschaft und stellt einen der wichtigsten Forschungsgegenstände der Bibliotheks- und Informationswissenschaft dar. Erstaunlicherweise findet jedoch ein stetiger Diskurs, der mit der kritischen Auseinandersetzung und der damit verbundenen Aktualisierung von Konzepten in den Geisteswissensschaften vergleichbar ist, zumindest im deutschsprachigen Raum1 nicht konstant statt. Im Sinne einer theoretischen Grundlagenforschung und zur Erarbeitung einer gemeinsamen begrifflichen Matrix wäre dies aber sicherlich wünschenswert. Bereits im letzten Jahr erschienen in dem von Søren Brier (Siehe "The foundation of LIS in information science and semiotics"2 sowie "Semiotics in Information Science. An Interview with Søren Brier on the application of semiotic theories and the epistemological problem of a transdisciplinary Information Science"3) herausgegebenen Journal "Cybernetics and Human Knowing" acht lesenswerte Stellungnahmen von namhaften Philosophen beziehungsweise Bibliotheks- und Informationswissenschaftlern zum Begriff der Information. Unglücklicherweise ist das Journal "Cybernetics & Human Knowing" in Deutschland schwer zugänglich, da es sich nicht um ein Open-Access-Journal handelt und lediglich von acht deutschen Bibliotheken abonniert wird.4 Aufgrund der schlechten Verfügbarkeit scheint es sinnvoll hier eine ausführliche Besprechung dieser acht Kurzartikel anzubieten.
    Das Journal, das sich laut Zusatz zum Hauptsachtitel thematisch mit "second order cybernetics, autopoiesis and cyber-semiotics" beschäftigt, existiert seit 1992/93 als Druckausgabe. Seit 1998 (Jahrgang 5, Heft 1) wird es parallel kostenpflichtig elektronisch im Paket über den Verlag Imprint Academic in Exeter angeboten. Das Konzept Information wird dort aufgrund der Ausrichtung, die man als theoretischen Beitrag zu den Digital Humanities (avant la lettre) ansehen könnte, regelmäßig behandelt. Insbesondere die phänomenologisch und mathematisch fundierte Semiotik von Charles Sanders Peirce taucht in diesem Zusammenhang immer wieder auf. Dabei spielt stets die Verbindung zur Praxis, vor allem im Bereich Library- and Information Science (LIS), eine große Rolle, die man auch bei Brier selbst, der in seinem Hauptwerk "Cybersemiotics" die Peirceschen Zeichenkategorien unter anderem auf die bibliothekarische Tätigkeit des Indexierens anwendet,5 beobachten kann. Die Ausgabe 1/ 2015 der Zeitschrift fragt nun "What underlines Information?" und beinhaltet unter anderem Artikel zum Entwurf einer Philosophie der Information des Chinesen Wu Kun sowie zu Peirce und Spencer Brown. Die acht Kurzartikel zum Informationsbegriff in der Bibliotheks- und Informationswissenschaft wurden von den Thellefsen-Brüdern (Torkild und Martin) sowie Bent Sørensen, die auch selbst gemeinsam einen der Kommentare verfasst haben.
    Theme
    Information
  15. Rötzer, F.: Bei zu vielen Optionen bockt das Gehirn (2018) 0.00
    0.0025173177 = product of:
      0.017621223 = sum of:
        0.013444485 = weight(_text_:system in 4982) [ClassicSimilarity], result of:
          0.013444485 = score(doc=4982,freq=2.0), product of:
            0.07727166 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.02453417 = queryNorm
            0.17398985 = fieldWeight in 4982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4982)
        0.004176737 = weight(_text_:information in 4982) [ClassicSimilarity], result of:
          0.004176737 = score(doc=4982,freq=2.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.09697737 = fieldWeight in 4982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4982)
      0.14285715 = coord(2/14)
    
    Abstract
    Wissenschaftler haben untersucht, wie viele Optionen für eine Auswahlentscheidung das menschliche Gehirn am besten findet. Wenn man Menschen in Verwirrung oder Apathie stürzen will, dürfte es eine gute Strategie sein, sie mit Information zu überladen. Das könnte eines der Geheimnisse unseres kapitalistischen Systems sein, das schon während des Kalten Kriegs zwischen dem Westen und dem kommunistischen System deswegen attraktiver war, weil es mit einer Flut an Waren und Informationen die Menschen verführte. Während die Menschen in den liberalen kapitalistischen Ländern davon sediert wurden, was Herbert Marcuse etwa als affirmative Kultur der Überflussgesellschaft bezeichnete, wuchs in den realkommunistischen Ländern mit geringer Auswahl der Wunsch nach mehr Vielfalt und Buntheit. In der kapitalistischen Warenwelt jedenfalls sind die Menschen konfrontiert mit einer Vielzahl von Möglichkeiten von der Politik über die Medien bis hin zu Waren und Dienstleistungen. Das kann mitunter dazu führen, aufgrund der Überforderung und des Zeitstresses keine Entscheidung zu treffen oder sich nach einem einfachen Kriterium für irgendetwas zu entscheiden, beispielsweise nach dem Preis, was wohl am einfachsten ist, weswegen Geiz eben geil ist. Choice overload nennt man das Problem oder auch Auswahl-Paradoxon. Das interessiert auch deswegen, weil der potenzielle Kunde aufgrund von zu viel Auswahl weniger kaufen oder den Kauf verschieben könnte, weil seine Kauflust schwindet oder er den Eindruck erhält, sich immer falsch zu entscheiden, wie wenn man in Stau steht und stets das Gefühl hat auf der falschen Spur zu fahren.
  16. Schlögl, C.: Zukunft der Informationswissenschaft : Gegenstandsbereich und Perspektiven (2014) 0.00
    0.0024973683 = product of:
      0.017481577 = sum of:
        0.0058474317 = weight(_text_:information in 3677) [ClassicSimilarity], result of:
          0.0058474317 = score(doc=3677,freq=2.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.13576832 = fieldWeight in 3677, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3677)
        0.011634145 = product of:
          0.02326829 = sum of:
            0.02326829 = weight(_text_:22 in 3677) [ClassicSimilarity], result of:
              0.02326829 = score(doc=3677,freq=2.0), product of:
                0.085914485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02453417 = queryNorm
                0.2708308 = fieldWeight in 3677, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3677)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Bevor ich einige Gedanken über die Zukunft der Informationswissenschaft in den deutschsprachigen Ländern anstelle, möchte ich zunächst versuchen, ihren Gegenstandsbereich zu umreißen. Bei einem schwer greifbaren Begriff wie "Information" ist es nicht überraschend, wenn es keine allgemeine Übereinstimmung über die zentralen Themen der Informationswissenschaft gibt.
    Date
    22. 6.2017 18:04:28
  17. Scheven, E.; Wening, M.F.: Zeitretrieval in der verbalen Inhaltserschließung (2018) 0.00
    0.0024548522 = product of:
      0.03436793 = sum of:
        0.03436793 = weight(_text_:retrieval in 3878) [ClassicSimilarity], result of:
          0.03436793 = score(doc=3878,freq=6.0), product of:
            0.07421378 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02453417 = queryNorm
            0.46309367 = fieldWeight in 3878, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=3878)
      0.071428575 = coord(1/14)
    
    Abstract
    Die Zeitdimension spielt im Retrieval oft eine wichtige Rolle. Dennoch ist eine inhaltliche Suche nach der Zeitfacette in Katalogen und anderen Recherchesystemen kaum sinnvoll umgesetzt, da die zugrundeliegenden Erschließungssysteme die Erfassung der Zeitfacette nur unzureichend abbilden. Der Artikel stellt kurz den Status quo dar und entwickelt eine Idee für ein verbessertes Retrieval der Zeitschlagwörter bei der inhaltlichen Erschließung.
    Theme
    Verbale Doksprachen im Online-Retrieval
  18. Franke, F.: ¬Das Framework for Information Literacy : neue Impulse für die Förderung von Informationskompetenz in Deutschland?! (2017) 0.00
    0.0024371832 = product of:
      0.017060282 = sum of:
        0.0070881573 = weight(_text_:information in 2248) [ClassicSimilarity], result of:
          0.0070881573 = score(doc=2248,freq=4.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.16457605 = fieldWeight in 2248, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.009972124 = product of:
          0.019944249 = sum of:
            0.019944249 = weight(_text_:22 in 2248) [ClassicSimilarity], result of:
              0.019944249 = score(doc=2248,freq=2.0), product of:
                0.085914485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02453417 = queryNorm
                0.23214069 = fieldWeight in 2248, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2248)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Das Framework for Information Literacy for Higher Education wurde im Januar 2016 vom Vorstand der Association of College & Research Libraries (ACRL) beschlossen. Es beruht auf der Idee von "Threshold Concepts" und sieht Informationskompetenz in einem engen Zusammenhang mit Wissenschaft und Forschung. Dadurch legt es bei der Vermittlung von Informationskompetenz eine starke Betonung auf das "Warum", nicht nur auf das "Was". Der Ansatz des Framework wird vielfach kontrovers diskutiert. Bietet er tatsächlich eine neue Sichtweise auf die Förderung von Informationskompetenz oder ist er überwiegend alter Wein in neuen Schläuchen? Kann das Framework neue Impulse für die Aktivitäten an den Bibliotheken in Deutschland setzen oder beschreibt es etwas, was wir längst machen? Der Beitrag versucht, Anregungen zu geben, welche Konsequenzen das Framework für unsere Kurse haben kann und welche veränderten Lernziele mit ihm verbunden sein können. Dabei plädiert er für ein umfassendes Verständnis von Informationskompetenz, das sich nicht auf Einzelaspekte wie Recherchekompetenz beschränkt.
    Source
    o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.4, S.22-29
  19. Balzer, D.; Fischer, B.K.; Kett, J.; Laux, S.; Lill, J.M.; Lindenthal, J.; Manecke, M.; Rosenkötter, M.; Vitzthum, A.: ¬Das Projekt "GND für Kulturdaten"; (GND4C) (2019) 0.00
    0.0023973652 = product of:
      0.03356311 = sum of:
        0.03356311 = product of:
          0.06712622 = sum of:
            0.06712622 = weight(_text_:datenmodell in 5721) [ClassicSimilarity], result of:
              0.06712622 = score(doc=5721,freq=2.0), product of:
                0.19304088 = queryWeight, product of:
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.02453417 = queryNorm
                0.3477306 = fieldWeight in 5721, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.8682456 = idf(docFreq=45, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5721)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    Abstract
    Der erste Teil des Beitrags erläutert Ziel und Vorgehensweise des Projektes in vier thematischen Schwerpunkten: Organisationsstruktur des GND­Netzwerks, Datenmodell und Regelwerk der GND, technische Infrastruktur sowie Erfordernisse eines Dialogs über die Grenzen der Bibliothekswelt hinaus. Der zweite Teil beschreibt die Bedingungen und Erfordernisse für die Integration von Normdaten für Personen und Sachbegriffe in die GND, soweit diese nicht durch die Erschließungsarbeit der Bibliotheken vorgegeben sind. Daraufhin werden die Möglichkeiten des bestehenden Datenmodells und der bisher geltenden Regeln hinsichtlich ihres Anpassungspotenzials für historische Geografika sowie Bauwerke untersucht. Als ortsgebundene Entitäten haben Bauwerke Eigenschaften mit natürlichen Geografika gemeinsam, teilen als künstliche Objekte aber auch Eigenschaften der von Menschen geschaffenen Werke. Diese Dualität ortsgebundender Objekte gilt es, in der GND darstellbar zu machen. Im letzten Beitragsteil wird erläutert, warum es nur einen geringen Bedarf an einer konzeptionellen Änderung des Basisdatenmodells der GND gibt. Allerdings werden auch spezifische Eigenschaften identifiziert, die für Objekte aus Museen oder Archiven relevant sind und nicht vom aktuellen GND­Datenmodell abgedeckt werden. Diese zusätzlichen Anforderungen werden durch die Spezifikation von CORE­ und PLUS­Bereichen erfüllt. Das CORE­PLUS­Modell unterscheidet zwischen Minimalanforderungen an einen Normdatensatz in einem CORE­Modell und zusätzlichen Regeln für einen jeweils community­spezifischen PLUS­Bereich. Ausblick und Fazit zeigen die noch offenen Fragen auf, deren Lösung in der zweiten Hälfte der Projektlaufzeit ansteht.
  20. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" II : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.00
    0.0023805113 = product of:
      0.016663577 = sum of:
        0.008353474 = weight(_text_:information in 330) [ClassicSimilarity], result of:
          0.008353474 = score(doc=330,freq=8.0), product of:
            0.04306919 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02453417 = queryNorm
            0.19395474 = fieldWeight in 330, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=330)
        0.008310104 = product of:
          0.016620208 = sum of:
            0.016620208 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
              0.016620208 = score(doc=330,freq=2.0), product of:
                0.085914485 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02453417 = queryNorm
                0.19345059 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=330)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Nur noch Informationsethik, Informationskompetenz und Information Assessment? Doch gerade die Abschottung von anderen Disziplinen verstärkt die Isolation des "kleinen Faches" Informationswissenschaft in der Scientific Community. So bleiben ihr als letzte "eigenständige" Forschungsrandgebiete nur die, die Wolf Rauch als Keynote Speaker bereits in seinem einführenden, historisch-genetischen Vortrag zur Lage der Informationswissenschaft auf der ISI 2021 benannt hat: "Wenn die universitäre Informationswissenschaft (zumindest in Europa) wohl kaum eine Chance hat, im Bereich der Entwicklung von Systemen und Anwendungen wieder an die Spitze der Entwicklung vorzustoßen, bleiben ihr doch Gebiete, in denen ihr Beitrag in der kommenden Entwicklungsphase dringend erforderlich sein wird: Informationsethik, Informationskompetenz, Information Assessment" (Wolf Rauch: Was aus der Informationswissenschaft geworden ist; in: Thomas Schmidt; Christian Wolff (Eds): Information between Data and Knowledge. Schriften zur Informationswissenschaft 74, Regensburg, 2021, Seiten 20-22 - siehe auch die Rezeption des Beitrages von Rauch durch Johannes Elia Panskus, Was aus der Informationswissenschaft geworden ist. Sie ist in der Realität angekommen, in: Open Password, 17. März 2021). Das ist alles? Ernüchternd.

Years