Search (120 results, page 1 of 6)

  • × year_i:[2020 TO 2030}
  1. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.28
    0.28166702 = product of:
      0.56333405 = sum of:
        0.056333408 = product of:
          0.16900022 = sum of:
            0.16900022 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.16900022 = score(doc=862,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.16900022 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.16900022 = score(doc=862,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.16900022 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.16900022 = score(doc=862,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.16900022 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.16900022 = score(doc=862,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.5 = coord(4/8)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.23
    0.23472254 = product of:
      0.46944508 = sum of:
        0.04694451 = product of:
          0.14083353 = sum of:
            0.14083353 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.14083353 = score(doc=1000,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.14083353 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.14083353 = score(doc=1000,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.14083353 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.14083353 = score(doc=1000,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.14083353 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.14083353 = score(doc=1000,freq=2.0), product of:
            0.30070248 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03546852 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(4/8)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Jetter, H.-C.: Informationsvisualisierung und Visual Analytics (2023) 0.03
    0.034781717 = product of:
      0.13912687 = sum of:
        0.060180478 = weight(_text_:darstellung in 791) [ClassicSimilarity], result of:
          0.060180478 = score(doc=791,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=791)
        0.07894638 = product of:
          0.15789276 = sum of:
            0.15789276 = weight(_text_:visualisierung in 791) [ClassicSimilarity], result of:
              0.15789276 = score(doc=791,freq=10.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.7415486 = fieldWeight in 791, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=791)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Die Visualisierung digitaler Datenbestände mit dem Computer ist heute alltäglich geworden. Spätestens seit der COVID-19-Pandemie sind computergenerierte Datenvisualisierungen und deren Interpretation durch den Menschen nicht mehr nur Expert*innen für Statistik und Datenanalyse vorbehalten. Stattdessen sind interaktive Visualisierungen zur Darstellung von Trends, Mustern oder Vergleichen in Daten zu festen Bestandteilen unseres medialen Alltags geworden, ob im (Daten-)Journalismus, in den sozialen Medien oder bei der Kommunikation von Behörden mit der Bevölkerung. Wie bereits von Reiterer und Jetter (2013) in einer früheren Auflage dieses Beitrags thematisiert wurde, bietet dieser Trend zur interaktiven und narrativen Visualisierung in den Massenmedien den Benutzer*innen neue Möglichkeiten des datenbasierten Erkenntnisgewinns. Seitdem popularisiert zusätzlich die Vielzahl verfügbarer "Tracker"-Apps mit dem Ziel der Verhaltensoptimierung (z. B. im Bereich Fitness oder Energiekonsum) die interaktive Visualisierung und Analyse persönlicher und privater Daten. Auch im beruflichen Alltag haben sich einstige Nischenwerkzeuge, wie z. B. die Visualisierungssoftware Tableau, in äußerst populäre Anwendungen verwandelt und sind zum Gegenstand zweistelliger Milliardeninvestitionen geworden, insbesondere für die Visualisierung und Analyse von Geschäftsdaten. Im Lichte dieser Entwicklungen soll dieser Beitrag daher im Folgenden einerseits grundlegende Begriffe und Konzepte der Informationsvisualisierung vermitteln, andererseits auch Alltagsformen und Zukunftstrends wie Visual Analytics thematisieren.
    Theme
    Visualisierung
  4. Graf, K.: DNB, die "schlechteste Nationalbibliothek der Galaxis" (Graf), laesst einmal mehr URN-Links ins Leere laufen (2023) 0.02
    0.018054143 = product of:
      0.14443314 = sum of:
        0.14443314 = weight(_text_:darstellung in 978) [ClassicSimilarity], result of:
          0.14443314 = score(doc=978,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.73477614 = fieldWeight in 978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.09375 = fieldNorm(doc=978)
      0.125 = coord(1/8)
    
    Abstract
    Ausführliche Darstellung zu Problemen des URN Resolvings bei der DNB.
  5. Alker-Windbichler, S.; Bauer, K.-H.; Bruckner, W.; Cerny, N.; Kiegler-Griensteidl, M.; Labner, J.: Exemplarspezifische Erschließung im Österreichischen Bibliothekenverbund : Ergebnisse einer Arbeitsgruppe der Zentralen Redaktion (2022) 0.01
    0.012766208 = product of:
      0.10212966 = sum of:
        0.10212966 = weight(_text_:darstellung in 485) [ClassicSimilarity], result of:
          0.10212966 = score(doc=485,freq=4.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.5195652 = fieldWeight in 485, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=485)
      0.125 = coord(1/8)
    
    Abstract
    Die Bedeutung der exemplarspezifischen Erschließung - also der Darstellung von besonderen Merkmalen und der Vorgeschichte eines bestimmten Buches im Katalog - ist in den vergangenen Jahren im Zusammenhang mit der Erforschung und Rekonstruktion alter und wertvoller Bestände, der NS-Provenienzforschung und der Digitalisierung gewachsen. Um gemeinsame Lösungen für die Erschließung, vor allem aber für die verbundweite Darstellung und Suchbarkeit von Exemplarspezifika zu finden, wurde eine Arbeitsgruppe der Zentralen Redaktion des Österreichischen Bibliothekenverbundes eingerichtet. Der Beitrag präsentiert die Ergebnisse der Arbeitsgruppe, die Arbeitsunterlagen für die Erschließung ebenso umfassen wie das Setup der Verbundsuchmaschine, das spezifische Suchen, exemplarspezifische Links und nicht zu-letzt die provisorische Nutzung von Normdaten erlaubt.
  6. Döring, N.: Computervermittelte Kommunikation (2023) 0.01
    0.012036095 = product of:
      0.09628876 = sum of:
        0.09628876 = weight(_text_:darstellung in 807) [ClassicSimilarity], result of:
          0.09628876 = score(doc=807,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.48985076 = fieldWeight in 807, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0625 = fieldNorm(doc=807)
      0.125 = coord(1/8)
    
    Abstract
    Der vorliegende Beitrag erklärt, wie computervermittelte Kommunikation definiert ist (Abschnitt 2) und wo sie eingesetzt wird (Abschnitt 3). Anschließend wird der aktuelle Forschungsstand umrissen (Abschnitt 4). Der Schwerpunkt des Beitrags liegt auf der Darstellung zentraler Theorien der computervermittelten Kommunikation (Abschnitt 5).
  7. Bischoff, M.: Eine (fast) unlösbare Aufgabe mit tragischem Ende : die fabelhafte Welt der Mathematik (2023) 0.01
    0.012036095 = product of:
      0.09628876 = sum of:
        0.09628876 = weight(_text_:darstellung in 932) [ClassicSimilarity], result of:
          0.09628876 = score(doc=932,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.48985076 = fieldWeight in 932, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0625 = fieldNorm(doc=932)
      0.125 = coord(1/8)
    
    Content
    Gelungene Darstellung des Zusammenhangs zwischen der Frage nach der Auflösbarkeit von Polynomgleichungen und Galoisgruppen.
  8. Datentracking in der Wissenschaft : Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Ein Informationspapier des Ausschusses für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft (2021) 0.01
    0.009027071 = product of:
      0.07221657 = sum of:
        0.07221657 = weight(_text_:darstellung in 248) [ClassicSimilarity], result of:
          0.07221657 = score(doc=248,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 248, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
      0.125 = coord(1/8)
    
    Abstract
    Das Informationspapier beschreibt die digitale Nachverfolgung von wissenschaftlichen Aktivitäten. Wissenschaftlerinnen und Wissenschaftler nutzen täglich eine Vielzahl von digitalen Informationsressourcen wie zum Beispiel Literatur- und Volltextdatenbanken. Häufig fallen dabei Nutzungsspuren an, die Aufschluss geben über gesuchte und genutzte Inhalte, Verweildauern und andere Arten der wissenschaftlichen Aktivität. Diese Nutzungsspuren können von den Anbietenden der Informationsressourcen festgehalten, aggregiert und weiterverwendet oder verkauft werden. Das Informationspapier legt die Transformation von Wissenschaftsverlagen hin zu Data Analytics Businesses dar, verweist auf die Konsequenzen daraus für die Wissenschaft und deren Einrichtungen und benennt die zum Einsatz kommenden Typen der Datengewinnung. Damit dient es vor allem der Darstellung gegenwärtiger Praktiken und soll zu Diskussionen über deren Konsequenzen für die Wissenschaft anregen. Es richtet sich an alle Wissenschaftlerinnen und Wissenschaftler sowie alle Akteure in der Wissenschaftslandschaft.
  9. Sack, H.: Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung (2021) 0.01
    0.009027071 = product of:
      0.07221657 = sum of:
        0.07221657 = weight(_text_:darstellung in 372) [ClassicSimilarity], result of:
          0.07221657 = score(doc=372,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 372, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
      0.125 = coord(1/8)
    
    Abstract
    Effizienter (Online-)Zugang zu Bibliotheks- und Archivmaterialien erfordert eine qualitativ hinreichende inhaltliche Erschließung dieser Dokumente. Die passgenaue Verschlagwortung und Kategorisierung dieser unstrukturierten Dokumente ermöglichen einen strukturell gegliederten Zugang sowohl in der analogen als auch in der digitalen Welt. Darüber hinaus erweitert eine vollständige Transkription der Dokumente den Zugang über die Möglichkeiten der Volltextsuche. Angesichts der in jüngster Zeit erzielten spektakulären Erfolge der Künstlichen Intelligenz liegt die Schlussfolgerung nahe, dass auch das Problem der automatisierten Inhaltserschließung für Bibliotheken und Archive als mehr oder weniger gelöst anzusehen wäre. Allerdings lassen sich die oftmals nur in thematisch engen Teilbereichen erzielten Erfolge nicht immer problemlos verallgemeinern oder in einen neuen Kontext übertragen. Das Ziel der vorliegenden Darstellung liegt in der Diskussion des aktuellen Stands der Technik der automatisierten inhaltlichen Erschließung anhand ausgewählter Beispiele sowie möglicher Fortschritte und Prognosen basierend auf aktuellen Entwicklungen des maschinellen Lernens und der Künstlichen Intelligenz einschließlich deren Kritik.
  10. Meyer, O.C.: Retrievalexperimente mit bibliothekarischen Daten : Historischer Überblick und aktueller Forschungsstand (2022) 0.01
    0.009027071 = product of:
      0.07221657 = sum of:
        0.07221657 = weight(_text_:darstellung in 655) [ClassicSimilarity], result of:
          0.07221657 = score(doc=655,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=655)
      0.125 = coord(1/8)
    
    Abstract
    Die Retrievalforschung in der Bibliothekswissenschaft hat in den letzten Jahrzehnten beachtliche Fortschritte gemacht. Automatische Indexierungsmethoden werden immer häufiger angewendet, obwohl dieses Thema in der Bibliothekswelt kontrovers diskutiert wird. Die Ergebnisse maschineller Erschließungsarbeit werden anhand von Retrievaltests festgehalten. Der Gegenstand dieser Arbeit ist die Darstellung von Retrievalexperimenten mit bibliothekarischen Daten. Zu Beginn werden die Grundlagen solcher Retrievaltests sowie das Cranfield-Paradigma erläutert. Es folgt eine Vorstellung verschiedener wissen schaftlicher Projekte aus diesem Forschungsfeld in chronologischer Reihenfolge. Wenn Verbindungen oder Einflussnahmen zwischen den einzelnen Projekten bestehen, werden diese herausgestellt. Im besonderen Umfang wird das Retrievalprojekt GELIC der TH Köln beschrieben, an dem der Autor dieser Arbeit beteiligt war. Obwohl es isolierte Retrievalprojekte gibt, lässt sich aus methodischer Sicht eine Verbindung von den frühesten Experimenten zu den heutigen Retrievalexperimenten herstellen. Diese Entwicklung ist noch nicht abgeschlossen.
  11. Lewandowski, D.: Suchmaschinen (2023) 0.01
    0.009027071 = product of:
      0.07221657 = sum of:
        0.07221657 = weight(_text_:darstellung in 793) [ClassicSimilarity], result of:
          0.07221657 = score(doc=793,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
      0.125 = coord(1/8)
    
    Abstract
    Eine Suchmaschine (auch: Web-Suchmaschine, Universalsuchmaschine) ist ein Computersystem, das Inhalte aus dem World Wide Web (WWW) mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden. Dies bedeutet, dass Suchmaschinen im Gegensatz zu anderen Informationssystemen nicht auf einem klar abgegrenzten Datenbestand aufbauen, sondern diesen aus den verstreut vorliegenden Dokumenten des WWW zusammenstellen. Dieser Datenbestand wird über eine Benutzerschnittstelle zugänglich gemacht, die so gestaltet ist, dass die Suchmaschine von Laien problemlos genutzt werden kann. Die zu einer Suchanfrage ausgegebenen Treffer werden so sortiert, dass den Nutzenden die aus Systemsicht relevantesten Dokumente zuerst angezeigt werden. Dabei handelt es sich um komplexe Bewertungsverfahren, denen zahlreiche Annahmen über die Relevanz von Dokumenten in Bezug auf Suchanfragen zugrunde liegen.
  12. Greifeneder, E.; Schlebbe, K.: Information Behaviour (2023) 0.01
    0.0075225597 = product of:
      0.060180478 = sum of:
        0.060180478 = weight(_text_:darstellung in 812) [ClassicSimilarity], result of:
          0.060180478 = score(doc=812,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=812)
      0.125 = coord(1/8)
    
    Abstract
    Information Behaviour (IB) bezeichnet die verschiedenen Formen der Interaktionen von Menschen und Information. Der Begriff wird außerdem auch als Oberbegriff für das Forschungsfeld verwendet, das Informationsverhalten erhebt, analysiert und interpretiert. Als Drittes wird der Begriff für eine auf das Individuum fokussierte Forschungsperspektive innerhalb der Information-Behaviour-Forschung verwendet. Wie dieser Artikel zeigt, ist Information Behaviour ein verhältnismäßig junges Forschungsfeld, das in einer digitalisierten Welt eine wichtige Rolle einnimmt. Der Beitrag zeigt aber auch, dass viele Themen noch wenig oder nicht ausreichend beforscht und viele Begriffe nicht eindeutig definiert sind (Savolainen 2021). Daher liegt hier der Schwerpunkt auf einer Darstellung der Vielfalt der Begriffsdefinitionen, Theorien und Modelle der Informationsverhaltensforschung. Im deutschsprachigen Raum gibt es die heutige IB-Forschung als Forschungsfeld erst seit etwa 20 Jahren und damit erst 30 Jahre später als in den Information-Behaviour-Hochburgen wie den USA, Schweden, Dänemark, Finnland, Norwegen oder Kanada. Davor dominierte im deutschsprachigen Raum die Benutzer*innenforschung, welche sich insbesondere in Studien zur Zufriedenheit und zur Nutzung von Bibliotheken und Museen manifestierte. Dieser Artikel definiert zuerst den Begriff Information Behaviour und stellt ein generalisierendes Modell der Informationsverhaltensforschung vor. Im Anschluss werden Formen der Interaktion mit Information und zentrale Entwicklungen des Forschungsfeldes beschrieben. Der Beitrag endet mit einem Einblick in die Information Behaviour Community.
  13. Busch, A.: Terminologiemanagement : erfolgreicher Wissenstransfer durch Concept-Maps und die Überlegungen in DGI-AKTS (2021) 0.01
    0.007061179 = product of:
      0.05648943 = sum of:
        0.05648943 = product of:
          0.11297886 = sum of:
            0.11297886 = weight(_text_:visualisierung in 422) [ClassicSimilarity], result of:
              0.11297886 = score(doc=422,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.53060895 = fieldWeight in 422, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0625 = fieldNorm(doc=422)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Die Organisation eines effektiven und effizienten Wissenstransfers ist eine große Herausforderung moderner Fachkommunikation. Durch die Aufbereitung von Begriffen und Begriffsbeziehungen in Begriffssystemen und deren übersichtliche und verständliche Visualisierung in einer Concept-Map macht das Terminologiemanagement Wissen einfach und schnell verfügbar. So kann es effizienter für die Fachkommunikation genutzt werden.
  14. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.01
    0.005868064 = product of:
      0.04694451 = sum of:
        0.04694451 = product of:
          0.14083353 = sum of:
            0.14083353 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.14083353 = score(doc=5669,freq=2.0), product of:
                0.30070248 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03546852 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  15. Hoeber, O.: ¬A study of visually linked keywords to support exploratory browsing in academic search (2022) 0.01
    0.0052958843 = product of:
      0.042367075 = sum of:
        0.042367075 = product of:
          0.08473415 = sum of:
            0.08473415 = weight(_text_:visualisierung in 644) [ClassicSimilarity], result of:
              0.08473415 = score(doc=644,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.39795673 = fieldWeight in 644, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.046875 = fieldNorm(doc=644)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Theme
    Visualisierung
  16. Zou, J.; Thoma, G.; Antani, S.: Unified deep neural network for segmentation and labeling of multipanel biomedical figures (2020) 0.00
    0.004413237 = product of:
      0.035305895 = sum of:
        0.035305895 = product of:
          0.07061179 = sum of:
            0.07061179 = weight(_text_:visualisierung in 10) [ClassicSimilarity], result of:
              0.07061179 = score(doc=10,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.3316306 = fieldWeight in 10, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=10)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Theme
    Visualisierung
  17. Ekström, B.: Trace data visualisation enquiry : a methodological coupling for studying information practices in relation to information systems (2022) 0.00
    0.004413237 = product of:
      0.035305895 = sum of:
        0.035305895 = product of:
          0.07061179 = sum of:
            0.07061179 = weight(_text_:visualisierung in 687) [ClassicSimilarity], result of:
              0.07061179 = score(doc=687,freq=2.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.3316306 = fieldWeight in 687, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=687)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Theme
    Visualisierung
  18. ¬Der Student aus dem Computer (2023) 0.00
    0.004204808 = product of:
      0.033638462 = sum of:
        0.033638462 = product of:
          0.067276925 = sum of:
            0.067276925 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.067276925 = score(doc=1079,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    27. 1.2023 16:22:55
  19. Jaeger, L.: Wissenschaftler versus Wissenschaft (2020) 0.00
    0.0036041208 = product of:
      0.028832966 = sum of:
        0.028832966 = product of:
          0.057665933 = sum of:
            0.057665933 = weight(_text_:22 in 4156) [ClassicSimilarity], result of:
              0.057665933 = score(doc=4156,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.46428138 = fieldWeight in 4156, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4156)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    2. 3.2020 14:08:22
  20. Ibrahim, G.M.; Taylor, M.: Krebszellen manipulieren Neurone : Gliome (2023) 0.00
    0.0036041208 = product of:
      0.028832966 = sum of:
        0.028832966 = product of:
          0.057665933 = sum of:
            0.057665933 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.057665933 = score(doc=1203,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.46428138 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1203)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Source
    Spektrum der Wissenschaft. 2023, H.10, S.22-24

Languages

  • e 80
  • d 40

Types

  • a 112
  • el 23
  • m 2
  • p 2
  • x 2
  • More… Less…