Search (1106 results, page 1 of 56)

  • × type_ss:"a"
  • × year_i:[2010 TO 2020}
  1. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.17
    0.16742769 = product of:
      0.33485538 = sum of:
        0.06387151 = product of:
          0.19161452 = sum of:
            0.19161452 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
              0.19161452 = score(doc=484,freq=2.0), product of:
                0.34094018 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040214643 = queryNorm
                0.56201804 = fieldWeight in 484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=484)
          0.33333334 = coord(1/3)
        0.27098387 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.27098387 = score(doc=484,freq=4.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.5 = coord(2/4)
    
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
  2. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.13
    0.12774302 = product of:
      0.25548604 = sum of:
        0.06387151 = product of:
          0.19161452 = sum of:
            0.19161452 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.19161452 = score(doc=400,freq=2.0), product of:
                0.34094018 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.040214643 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
        0.19161452 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.19161452 = score(doc=400,freq=2.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.5 = coord(2/4)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  3. Herb, U.; Beucke, D.: ¬Die Zukunft der Impact-Messung : Social Media, Nutzung und Zitate im World Wide Web (2013) 0.06
    0.06387151 = product of:
      0.25548604 = sum of:
        0.25548604 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.25548604 = score(doc=2188,freq=2.0), product of:
            0.34094018 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.040214643 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
      0.25 = coord(1/4)
    
    Content
    Vgl. unter: https://www.leibniz-science20.de%2Fforschung%2Fprojekte%2Faltmetrics-in-verschiedenen-wissenschaftsdisziplinen%2F&ei=2jTgVaaXGcK4Udj1qdgB&usg=AFQjCNFOPdONj4RKBDf9YDJOLuz3lkGYlg&sig2=5YI3KWIGxBmk5_kv0P_8iQ.
  4. Jaeger, L.: Intellektuelle Redlichkeit (2019) 0.06
    0.061432924 = product of:
      0.2457317 = sum of:
        0.2457317 = weight(_text_:methode in 5500) [ClassicSimilarity], result of:
          0.2457317 = score(doc=5500,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.9721986 = fieldWeight in 5500, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.109375 = fieldNorm(doc=5500)
      0.25 = coord(1/4)
    
    Abstract
    Von der Bedeutung der gesellschaftlichen Akzeptanz der wissenschaftlichen Methode.
  5. Ratzek, W.: Problemlösung. Verifiziertes Faktum oder Illusion? (2013) 0.06
    0.060362175 = product of:
      0.12072435 = sum of:
        0.105313584 = weight(_text_:methode in 657) [ClassicSimilarity], result of:
          0.105313584 = score(doc=657,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.41665655 = fieldWeight in 657, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.046875 = fieldNorm(doc=657)
        0.015410768 = product of:
          0.0462323 = sum of:
            0.0462323 = weight(_text_:22 in 657) [ClassicSimilarity], result of:
              0.0462323 = score(doc=657,freq=4.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.32829654 = fieldWeight in 657, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=657)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die nächste Krise kommt mit Sicherheit. Nur wissen wir nicht in welcher Gestalt und Intensität. Welche Mittel gibt es, um Krise abzumildern, sie nicht zu einer Katastrophe ausarten zu lassen? Für die Bewältigung dieser Problemlagen stehen zahlreiche Methoden und Techniken zur Verfügung. Wir machen es uns aber zu einfach, wenn wir glauben, dass die Anwendung der "richtigen" Methode und Technik schon zur Lösung führt. Patentrezepte gibt es nicht. Die Realität ist komplexer als das Simulakrum, das wir uns schaffen. Daraus resultieren einige grundlegende Fragestellungen: Was ist das charakteristische an einem Problem? Worin besteht der Unterschied zwischen einem Problem und einer Aufgabe? Lässt sich Komplexität nachhaltig managen? Welche Formen der Komplexitätsreduzierung gibt es? Wie können Information Professionals bei der Bewältigung mitwirken? Erst mit diesen Vorkenntnissen lassen sich Problemlagen für eine unbestimmte Zeit bewältigen.
    Date
    22. 3.2013 14:05:39
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.1, S.9-22
  6. Knoll, A.: Kompetenzprofil von Information Professionals in Unternehmen (2016) 0.06
    0.05810532 = product of:
      0.11621064 = sum of:
        0.105313584 = weight(_text_:methode in 3069) [ClassicSimilarity], result of:
          0.105313584 = score(doc=3069,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.41665655 = fieldWeight in 3069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.010897058 = product of:
          0.032691173 = sum of:
            0.032691173 = weight(_text_:22 in 3069) [ClassicSimilarity], result of:
              0.032691173 = score(doc=3069,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.23214069 = fieldWeight in 3069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3069)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Zielsetzung - Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der vorliegenden Arbeit eine Begriffsbestimmung unternommen. Methode - Mit Hilfe dreier Methoden - einer Auswertung von relevanter Fachliteratur, der Untersuchung von einschlägigen Stellenausschreibungen und dem Führen von Experteninterviews - wird ein Kompetenzprofil für Information Professionals erstellt. Ergebnisse - Die 16 wichtigsten Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen sind IT-Kenntnisse, Sprachkenntnisse, Quellenkenntnisse, Recherchekenntnisse, Projektmanagement, Darstellungskompetenz, Problemlösungskompetenz, selbständiges Arbeiten, Kommunikationsfähigkeit, Teamfähigkeit, Servicementalität, Interkulturelle Kompetenz, Analytische Fähigkeiten, Eigenmarketing, Veränderungsbereitschaft und Stressresistenz. Schlussfolgerung - Die Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst. Ein Kompetenzrad kann als Visualisierung dienen.
    Date
    28. 7.2016 16:22:54
  7. Reinhold, A.: ¬Das Experteninterview als zentrale Methode der Wissensmodellierung in den Digital Humanities (2015) 0.05
    0.052656792 = product of:
      0.21062717 = sum of:
        0.21062717 = weight(_text_:methode in 2383) [ClassicSimilarity], result of:
          0.21062717 = score(doc=2383,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.8333131 = fieldWeight in 2383, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.09375 = fieldNorm(doc=2383)
      0.25 = coord(1/4)
    
  8. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.05
    0.048462316 = product of:
      0.09692463 = sum of:
        0.08776132 = weight(_text_:methode in 3068) [ClassicSimilarity], result of:
          0.08776132 = score(doc=3068,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.34721377 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.009163312 = product of:
          0.027489934 = sum of:
            0.027489934 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.027489934 = score(doc=3068,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Source
    Young information scientists. 1(2016), S.13-29
  9. Peters, I.: Folksonomies : nutzergenerierte Schlagwörter als Indexierungswerkzeug für die Massen (2011) 0.04
    0.043439638 = product of:
      0.17375855 = sum of:
        0.17375855 = weight(_text_:methode in 4909) [ClassicSimilarity], result of:
          0.17375855 = score(doc=4909,freq=4.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.68744826 = fieldWeight in 4909, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4909)
      0.25 = coord(1/4)
    
    Abstract
    Die große Fülle an nutzergeneriertem Content im Web 2.0 bedarf einer Strukturierung, will man diese Inhalte sinnvoll nutzen können. Im Internet hat sich mit den Folksonomies eigenständig eine Methode zur inhaltlichen Erschließung von digitalen Ressourcen etabliert. Die Verschlagwortung durch freie, von den Nutzern erstellte Tags zeigt viel Potential, birgt aber auch einige Risiken. Der Beitrag soll grundlegend in die Funktionsweise von Folksonomies einführen und dabei auch Vor- und Nachteile dieser Methode der Wissensrepräsentation ansprechen. Außerdem soll anhand von Beispielen kurz gezeigt werden, wie Folksonomies sinnvoll von Bibliotheken eingesetzt werden können.
  10. Deuschel, T.; Heuss, T.; Humm, B.: ¬Die Medienplattform : ein System für gerichtete und ungerichtete semantische Suchen (2015) 0.04
    0.035104528 = product of:
      0.14041811 = sum of:
        0.14041811 = weight(_text_:methode in 2233) [ClassicSimilarity], result of:
          0.14041811 = score(doc=2233,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.55554205 = fieldWeight in 2233, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0625 = fieldNorm(doc=2233)
      0.25 = coord(1/4)
    
    Abstract
    Die Medienplattform bietet neuartige Möglichkeiten, um Medienbestände zu entdecken. In zwei verschiedenen Anwendungsszenarien unterstützt sie unterschiedliche Suchparadigmen: Für browsingbasierte Anwendungen wird das Digitale Schlendern vorgestellt, eine Methode in der semantische Zusammenhänge von Medien als Explorationsanreiz genutzt werden. Für Anwendungen bei denen der Nutzer weiß, was er sucht, aber nicht wie das gesuchte Medium heißt, wird eine suchkontextsensitive semantische Facettierung vorgestellt.
  11. Grassegger, H.; Krogerus, M.: Ich habe nur gezeigt, dass es die Bombe gibt (2016) 0.04
    0.035104528 = product of:
      0.14041811 = sum of:
        0.14041811 = weight(_text_:methode in 3421) [ClassicSimilarity], result of:
          0.14041811 = score(doc=3421,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.55554205 = fieldWeight in 3421, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0625 = fieldNorm(doc=3421)
      0.25 = coord(1/4)
    
    Abstract
    Der Psyvhologe Michal Kosinski hat eine Methode entwickelt, um Menschen anhand ihres Verhaltens auf Facebook minutiös zu analysieren. Und verhalf so Donald Trump mit zum Sieg.
  12. Schweibenz, W.: ¬Eine erste Evaluation der Europeana : Wie Benutzer das "Look & Feel" des Prototypen der Europäischen Digitalen Bibliothek beurteilen (2010) 0.03
    0.030716462 = product of:
      0.12286585 = sum of:
        0.12286585 = weight(_text_:methode in 3933) [ClassicSimilarity], result of:
          0.12286585 = score(doc=3933,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.4860993 = fieldWeight in 3933, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3933)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag gibt einen Überblick über die Entstehung und Aufgabe der Europäischen Digitalen Bibliothek Europeana. Im Anschluss beschreibt er ein Evaluationsprojekt zur Untersuchung des "Look & Feel" des Prototypen der Europeana (Stand Dezember 2009), der mit Hilfe der Plus-Minus-Methode von Benutzern beurteilt wird, die Masterstudierende im Fach Kommunikationsdesign sind. Die Ergebnisse werden nach ausgewählten Kriterien vorgestellt, wobei zu jedem Kriterium positive und negative Bewertungen sowie Verbesserungsvorschläge aufgeführt werden, diskutiert und in Bezug gesetzt zum jüngsten User and Functional Testing der Europeana. Der Beitrag schließt mit einer Zusammenfassung.
  13. Peters, I.; Schumann, L.; Terliesner, J.: Folksonomy-basiertes Information Retrieval unter der Lupe (2012) 0.03
    0.030716462 = product of:
      0.12286585 = sum of:
        0.12286585 = weight(_text_:methode in 406) [ClassicSimilarity], result of:
          0.12286585 = score(doc=406,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.4860993 = fieldWeight in 406, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0546875 = fieldNorm(doc=406)
      0.25 = coord(1/4)
    
    Abstract
    Social Tagging ist eine weitverbreitete Methode, um nutzergenerierte Inhalte in Webdiensten zu indexieren. Dieser Artikel fasst die aktuelle Forschung zu Folksonomies und Effektivität von Tags in Retrievalsystemen zusammen. Es wurde ein TREC-ähnlicher Retrievaltest mit Tags und Ressourcen aus dem Social Bookmarking-Dienst delicious durchgeführt, welcher in Recall- und Precisionwerten für ausschließlich Tag-basierte Suchen resultierte. Außerdem wurden Tags in verschiedenen Stufen bereinigt und auf ihre Retrieval-Effektivität getestet. Testergebnisse zeigen, dass Retrieval in Folksonomies am besten mit kurzen Anfragen funktioniert. Hierbei sind die Recallwerte hoch, die Precisionwerte jedoch eher niedrig. Die Suchfunktion "power tags only" liefert verbesserte Precisionwerte.
  14. Volpers, H.: Inhaltsanalyse (2013) 0.03
    0.030716462 = product of:
      0.12286585 = sum of:
        0.12286585 = weight(_text_:methode in 1018) [ClassicSimilarity], result of:
          0.12286585 = score(doc=1018,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.4860993 = fieldWeight in 1018, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1018)
      0.25 = coord(1/4)
    
    Abstract
    Der Begriff Inhaltsanalyse wird je nach wissenschaftlicher Provenienz oder Bedeutungszusammenhang unterschiedlich definiert: Innerhalb der bibliothekarischen Praxis wird die Erfassung des Inhaltes eines vorliegenden Dokumentes für die Zwecke der Indexierung als Inhaltsanalyse bezeichnet, philologische Textinterpretationen oder sprachwissenschaftliche Textanalysen werden gelegentlich als Inhaltsanalysen etikettiert, ebenso die Interpretation von Interviewaussagen in der Psychologie und qualitativen Sozialforschung. Der vorliegende Beitrag bezieht sich explizit auf die sozialwissenschaftliche Methode der systematischen Inhaltsanalyse. Allerdings ist auch durch diese Eingrenzung noch keine hinreichende definitorische Klarheit geschaffen, da eine Unterscheidung in qualitative und quantitative Verfahren vorzunehmen ist.
  15. Endres-Niggemeyer, B.: Thinkie: Lautes Denken mit Spracherkennung (mobil) (2013) 0.03
    0.026328396 = product of:
      0.105313584 = sum of:
        0.105313584 = weight(_text_:methode in 1145) [ClassicSimilarity], result of:
          0.105313584 = score(doc=1145,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.41665655 = fieldWeight in 1145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.046875 = fieldNorm(doc=1145)
      0.25 = coord(1/4)
    
    Abstract
    Lautes Denken ist eine bewährte Methode zum Erforschen kognitiver Prozesse. Es wird in vielen Disziplinen benutzt, z. B. um aufzudecken, welche Erfahrungen Benutzer bei der Interaktion mit Computerschnittstellen machen. Nach einer kurzen Erklärung des Lauten Denkens wird die App Thinkie vorgestellt. Thinkie ist eine mobile Lösung für das Laute Denken auf iPhone und iPad. Die Testperson nimmt auf dem iPhone den Ton auf. Die Spracherkennungssoftware Siri (http://www.apple.com/de/ios/siri/) transkribiert ihn. Parallel wird auf dem iPad oder einem anderen Gerät gefilmt. Auf dem iPad kann man - mit Video im Blick - das Transkript aufarbeiten und interpretieren. Die Textdateien transportiert Thinkie über eine Cloud-Kollektion, die Filme werden mit iTunes übertragen. Thinkie ist noch nicht tauglich für den praktischen Gebrauch. Noch sind die Sequenzen zu kurz, die Siri verarbeiten kann. Das wird sich ändern.
  16. Drees, B.: Text und data mining : Herausforderungen und Möglichkeiten für Bibliotheken (2016) 0.03
    0.026328396 = product of:
      0.105313584 = sum of:
        0.105313584 = weight(_text_:methode in 3952) [ClassicSimilarity], result of:
          0.105313584 = score(doc=3952,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.41665655 = fieldWeight in 3952, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.046875 = fieldNorm(doc=3952)
      0.25 = coord(1/4)
    
    Abstract
    Text und Data Mining (TDM) gewinnt als wissenschaftliche Methode zunehmend an Bedeutung und stellt wissenschaftliche Bibliotheken damit vor neue Herausforderungen, bietet gleichzeitig aber auch neue Möglichkeiten. Der vorliegende Beitrag gibt einen Überblick über das Thema TDM aus bibliothekarischer Sicht. Hierzu wird der Begriff Text und Data Mining im Kontext verwandter Begriffe diskutiert sowie Ziele, Aufgaben und Methoden von TDM erläutert. Diese werden anhand beispielhafter TDM-Anwendungen in Wissenschaft und Forschung illustriert. Ferner werden technische und rechtliche Probleme und Hindernisse im TDM-Kontext dargelegt. Abschließend wird die Relevanz von TDM für Bibliotheken, sowohl in ihrer Rolle als Informationsvermittler und -anbieter als auch als Anwender von TDM-Methoden, aufgezeigt. Zudem wurde im Rahmen dieser Arbeit eine Befragung der Betreiber von Dokumentenservern an Bibliotheken in Deutschland zum aktuellen Umgang mit TDM durchgeführt, die zeigt, dass hier noch viel Ausbaupotential besteht. Die dem Artikel zugrunde liegenden Forschungsdaten sind unter dem DOI 10.11588/data/10090 publiziert.
  17. Dunckel, P.: Zusammenführung mehrerer Thesauri zu einem gemeinsamen Begriffssystem : Probleme und Lösungsansätze (2017) 0.03
    0.026328396 = product of:
      0.105313584 = sum of:
        0.105313584 = weight(_text_:methode in 4233) [ClassicSimilarity], result of:
          0.105313584 = score(doc=4233,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.41665655 = fieldWeight in 4233, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.046875 = fieldNorm(doc=4233)
      0.25 = coord(1/4)
    
    Abstract
    Im Zeitalter der digitalen Vernetzung und im Zuge zunehmend interdisziplinärer und internationaler Forschungsbestrebungen gewinnt die Interoperabilität von Informationssystemen stärker an Bedeutung. Ein wichtiger Schritt, um diese Interoperabilität zu erreichen und einen zentralen Zugang zu verteilten Systemen zu ermöglichen, liegt in der Zusammenführung der jeweiligen Erschließungsinstrumente der Informationssysteme. Eine Integration der verschiedenen kontrollierten Vokabulare erlaubt einen Datenaustausch zwischen den diversen Informationssystemen. Außerdem ermöglicht und vereinfacht sie eine systemübergreifende Recherche über mehrere Datenbanken, ohne dass eine Suchanfrage mehrmals formuliert oder umformuliert werden muss. Es existieren unterschiedliche Methoden und Instrumente sowie Strukturmodelle, mit denen eine Thesaurusintegration durchgeführt werden kann. Die am weitesten verbreitete Methode, das Mapping, ist sogar als ISO-Norm formuliert. Bei einer Thesauruszusammenführung können diverse Probleme auftreten. Jedoch gibt es Lösungsansätze, mit denen den Herausforderungen begegnet werden kann.
  18. Bank, C.: ¬Die Usability von Online-Wörterbüchern und elektronischen Sprachportalen (2012) 0.02
    0.02194033 = product of:
      0.08776132 = sum of:
        0.08776132 = weight(_text_:methode in 566) [ClassicSimilarity], result of:
          0.08776132 = score(doc=566,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.34721377 = fieldWeight in 566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
      0.25 = coord(1/4)
    
    Abstract
    Die Arbeit untersucht die Usability von Online-Wörterbüchern und elektronischen Sprachportalen und soll eine Brücke zwischen der Usability von Websites hinsichtlich softwareergonomischer Normen und Konventionen und Wörterbüchern in elektronischer Form schlagen. Die einzige Usability-Methode, mit der es möglich ist, konkrete und empirisch belegte Aussagen darüber zu treffen, wie potentielle Nutzer ein Online-Wörterbuch verwenden und welche Probleme dabei festgestellt werden, ist ein Usability- Test mit realen Benutzern. Als Untersuchungsgegenstand dient das Online-Wortschatz-Informationssystem Deutsch (Owid), die Base lexicale du français (BLF) und das elektronische Lernerwörterbuch Deutsch-Italienisch (Eldit). Die Arbeit setzt sich aus vier verschiedenen empirischen Studien zusammen. Da ein Usability-Test immer nur einen Ausschnitt an Funktionalitäten aus einem gesamten System widerspiegeln kann, wurden mithilfe einer empirischen Fragebogen-Studie zunächst die für den Benutzer wichtigsten und am meisten verwendeten Funktionen eines Online-Wörterbuchs identifiziert und als Grundlage für den Test gewählt. Eine anschließende heuristische Evaluation trug potentielle Usability-Probleme der drei Online- Wörterbücher zusammen und stellte die Grundlage für die Thesenstellung des Usability-Tests dar. Der Test setzte sich aus zwei empirischen Teilen zusammen: Einem Aufgabenteil, den die Testperson für jedes der drei Online-Wörterbüchern einzeln bearbeiten und dabei die Testmethode des lauten Denkens anwenden musste und einem Post-Test- Fragebogen, der direkt nach dem Bearbeiten des jeweiligen Aufgabenkatalogs ausgefüllt wurde. Der gesamte Test wurde mit Morae, einer Software u. a. für Software- und Website- Usability-Tests, durchgeführt und ausgewertet.
  19. Deisseroth, K.: Lichtschalter im Gehirn (2011) 0.02
    0.02189303 = product of:
      0.08757212 = sum of:
        0.08757212 = product of:
          0.13135818 = sum of:
            0.06597584 = weight(_text_:29 in 4248) [ClassicSimilarity], result of:
              0.06597584 = score(doc=4248,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.46638384 = fieldWeight in 4248, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4248)
            0.06538235 = weight(_text_:22 in 4248) [ClassicSimilarity], result of:
              0.06538235 = score(doc=4248,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.46428138 = fieldWeight in 4248, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4248)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Source
    Spektrum der Wissenschaft. 2011, H.2, S.22-29
  20. Sauperl, S.A.: UDC as a standardisation method for providing titles of documents (2015) 0.02
    0.02189303 = product of:
      0.08757212 = sum of:
        0.08757212 = product of:
          0.13135818 = sum of:
            0.06597584 = weight(_text_:29 in 2302) [ClassicSimilarity], result of:
              0.06597584 = score(doc=2302,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.46638384 = fieldWeight in 2302, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2302)
            0.06538235 = weight(_text_:22 in 2302) [ClassicSimilarity], result of:
              0.06538235 = score(doc=2302,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.46428138 = fieldWeight in 2302, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2302)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    10.11.2015 10:22:31
    Source
    Classification and authority control: expanding resource discovery: proceedings of the International UDC Seminar 2015, 29-30 October 2015, Lisbon, Portugal. Eds.: Slavic, A. u. M.I. Cordeiro

Authors

Languages

  • e 854
  • d 248
  • a 1
  • sp 1
  • More… Less…

Types

  • el 74
  • b 4
  • More… Less…

Themes