Search (206 results, page 1 of 11)

  • × language_ss:"d"
  • × type_ss:"el"
  1. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.12
    0.12098919 = product of:
      0.36296755 = sum of:
        0.051852506 = product of:
          0.15555751 = sum of:
            0.15555751 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.15555751 = score(doc=4388,freq=2.0), product of:
                0.3321406 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03917671 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.15555751 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.15555751 = score(doc=4388,freq=2.0), product of:
            0.3321406 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03917671 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.15555751 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.15555751 = score(doc=4388,freq=2.0), product of:
            0.3321406 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03917671 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.33333334 = coord(3/9)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  2. Heller, L.: Ergebnisse der Benutzerumfrage "Literaturverwaltung - Was ich benutze und was ich brauche", TIB/UB Hannover 2011 (2011) 0.02
    0.02363741 = product of:
      0.10636835 = sum of:
        0.011975031 = weight(_text_:of in 4884) [ClassicSimilarity], result of:
          0.011975031 = score(doc=4884,freq=4.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.19546966 = fieldWeight in 4884, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0625 = fieldNorm(doc=4884)
        0.09439332 = weight(_text_:software in 4884) [ClassicSimilarity], result of:
          0.09439332 = score(doc=4884,freq=6.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.6073436 = fieldWeight in 4884, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=4884)
      0.22222222 = coord(2/9)
    
    Abstract
    Raw data set (in CSV format) of a user survey about usage and needs regarding reference management software (like Endnote, Zotero, Citavi) in germany 2011. Participants were mainly college students, librarians, and other users of reference management software.
    Theme
    Bibliographische Software
  3. Schönherr, M.: Bestechend brillant : die Schönheit der Algorithmen (2016) 0.02
    0.021036007 = product of:
      0.094662026 = sum of:
        0.068122506 = weight(_text_:software in 2762) [ClassicSimilarity], result of:
          0.068122506 = score(doc=2762,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.43831247 = fieldWeight in 2762, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.078125 = fieldNorm(doc=2762)
        0.026539518 = product of:
          0.053079035 = sum of:
            0.053079035 = weight(_text_:22 in 2762) [ClassicSimilarity], result of:
              0.053079035 = score(doc=2762,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.38690117 = fieldWeight in 2762, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2762)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Algorithmen sind Rezepte, aus denen Computerprogramme entstehen. Es gibt keine Software ohne Algorithmen. Je eleganter ein Algorithmus ist, desto weniger Rechenpower benötigt er, um zum Ziel zu kommen. Algorithmen können allerdings teuer sein - und die Nachfrage zur Lösung neuer und alter Probleme ist riesig.
    Date
    10. 2.2016 17:22:23
  4. Bauckhage, C.: Marginalizing over the PageRank damping factor (2014) 0.02
    0.020995347 = product of:
      0.09447906 = sum of:
        0.08389453 = weight(_text_:applications in 928) [ClassicSimilarity], result of:
          0.08389453 = score(doc=928,freq=2.0), product of:
            0.17247584 = queryWeight, product of:
              4.4025097 = idf(docFreq=1471, maxDocs=44218)
              0.03917671 = queryNorm
            0.4864132 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4025097 = idf(docFreq=1471, maxDocs=44218)
              0.078125 = fieldNorm(doc=928)
        0.010584532 = weight(_text_:of in 928) [ClassicSimilarity], result of:
          0.010584532 = score(doc=928,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.17277241 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.078125 = fieldNorm(doc=928)
      0.22222222 = coord(2/9)
    
    Abstract
    In this note, we show how to marginalize over the damping parameter of the PageRank equation so as to obtain a parameter-free version known as TotalRank. Our discussion is meant as a reference and intended to provide a guided tour towards an interesting result that has applications in information retrieval and classification.
  5. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.02
    0.016828805 = product of:
      0.07572962 = sum of:
        0.054498006 = weight(_text_:software in 1490) [ClassicSimilarity], result of:
          0.054498006 = score(doc=1490,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.35064998 = fieldWeight in 1490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=1490)
        0.021231614 = product of:
          0.042463228 = sum of:
            0.042463228 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.042463228 = score(doc=1490,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  6. Schirrmeister, N.-P.; Keil, S.: Aufbau einer Infrastruktur für Information Retrieval-Evaluationen (2012) 0.01
    0.0147717865 = product of:
      0.06647304 = sum of:
        0.011975031 = weight(_text_:of in 3097) [ClassicSimilarity], result of:
          0.011975031 = score(doc=3097,freq=4.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.19546966 = fieldWeight in 3097, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
        0.054498006 = weight(_text_:software in 3097) [ClassicSimilarity], result of:
          0.054498006 = score(doc=3097,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.35064998 = fieldWeight in 3097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
      0.22222222 = coord(2/9)
    
    Abstract
    Das Projekt "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE) bietet eine Softwareinfrastruktur zur Unterstützung von Information Retrieval-Evaluationen (IR-Evaluationen). Die Infrastruktur basiert auf einem Tool-Kit, das bei GESIS im Rahmen des DFG-Projekts IRM entwickelt wurde. Ziel ist es, ein System zu bieten, das zur Forschung und Lehre am Fachbereich Media für IR-Evaluationen genutzt werden kann. This paper describes some aspects of a project called "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE). Its goal is to build a software-infrastructure which supports the evaluation of information retrieval algorithms.
  7. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.01
    0.014725204 = product of:
      0.066263415 = sum of:
        0.047685754 = weight(_text_:software in 4324) [ClassicSimilarity], result of:
          0.047685754 = score(doc=4324,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.30681872 = fieldWeight in 4324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.018577661 = product of:
          0.037155323 = sum of:
            0.037155323 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.037155323 = score(doc=4324,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  8. Mühlbauer, P.: Upload in Computer klappt . (2018) 0.01
    0.014725204 = product of:
      0.066263415 = sum of:
        0.047685754 = weight(_text_:software in 4113) [ClassicSimilarity], result of:
          0.047685754 = score(doc=4113,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.30681872 = fieldWeight in 4113, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4113)
        0.018577661 = product of:
          0.037155323 = sum of:
            0.037155323 = weight(_text_:22 in 4113) [ClassicSimilarity], result of:
              0.037155323 = score(doc=4113,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.2708308 = fieldWeight in 4113, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4113)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Den drei an der Technischen Universität in Wien forschenden Informatikern Mathias Lechner, Radu Grosu und Ramin Hasani ist es gelungen, das Nervensystem des Fadenwurm Caenorhabditis elegans (C. elegans) als Software in einen Computer zu übertragen und nachzuweisen, dass der "hochgeladene" virtuelle Wurm auf Reize genau so reagiert wie ein echter Nematodenwurm auf echte Reize in der Realität. Dafür ließen sie ihn eine Aufgabe bewältigen, die Hasani zufolge dem Balancieren eines Stabes ähnelt.
    Date
    12. 2.2018 15:22:19
  9. Keßler, K.; Krüger, A.T.; Ghammad, Y.; Wulle, S.; Balke, W.-T.; Stump, K.: PubPharm - Der Fachinformationsdienst Pharmazie (2016) 0.01
    0.013992786 = product of:
      0.06296754 = sum of:
        0.02890629 = weight(_text_:systems in 3133) [ClassicSimilarity], result of:
          0.02890629 = score(doc=3133,freq=4.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.24009174 = fieldWeight in 3133, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3133)
        0.034061253 = weight(_text_:software in 3133) [ClassicSimilarity], result of:
          0.034061253 = score(doc=3133,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.21915624 = fieldWeight in 3133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3133)
      0.22222222 = coord(2/9)
    
    Abstract
    Der Fachinformationsdienst (FID) Pharmazie verfolgt das Ziel, die Informationsinfrastruktur und die Literaturversorgung für die pharmazeutische Hochschulforschung nachhaltig zu verbessern. Das Projekt wird seit dem 1. Januar 2015 von der Deutschen Forschungsgemeinschaft gefördert. Eine Besonderheit stellt die Kooperation zwischen der Universitätsbibliothek Braunschweig und dem Institut für Informationssysteme (IfIS) der TU Braunschweig dar, wodurch aktuelle Forschung auf dem Gebiet der Informatik in die Implementierung innovativer FID-Dienste mündet. Im Zentrum des Projektes steht der nutzerzentrierte Aufbau einer erweiterbaren und personalisierbaren Informationsinfrastruktur. Das vom FID entwickelte Discovery System "PubPharm" zur pharmaziespezifischen Recherche basiert, als Weiterentwicklung des beluga-Systems der SUB Hamburg, auf der Open Source Software VuFind. Als Datengrundlage enthält es u.a. die Medline Daten, erweitert durch Normdaten, die unter anderem die Suche nach chemischen Strukturen erlauben. Gleichzeitig werden vom Institut für Informationssysteme innovative Suchmöglichkeiten basierend auf Narrativer Intelligenz untersucht und perspektivisch in das Retrieval des Discovery Systems eingebunden. Im Rahmen von sog. FID-Lizenzen bietet der FID Pharmazie Wissenschaftlern/innen Volltextzugriff auf pharmazeutische Fachzeitschriften. Bestandteil der Lizenzen ist das Recht zur Langzeitarchivierung. Bei deren technischer Umsetzung kooperiert der FID mit der TIB Hannover. Der FID Pharmazie koppelt seine Aktivitäten eng an die pharmazeutische Fachcommunity: unter anderem begleitet ein Fachbeirat die Entwicklungen. Im Rahmen der Öffentlichkeitsarbeit werden Nutzer/innen umfassend über die Angebote informiert, u.a. in Webcasts und im PubPharm Blog.
  10. Balakrishnan, U.; Krausz, A,; Voss, J.: Cocoda - ein Konkordanztool für bibliothekarische Klassifikationssysteme (2015) 0.01
    0.012111353 = product of:
      0.054501086 = sum of:
        0.020439833 = weight(_text_:systems in 2030) [ClassicSimilarity], result of:
          0.020439833 = score(doc=2030,freq=2.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.1697705 = fieldWeight in 2030, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2030)
        0.034061253 = weight(_text_:software in 2030) [ClassicSimilarity], result of:
          0.034061253 = score(doc=2030,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.21915624 = fieldWeight in 2030, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2030)
      0.22222222 = coord(2/9)
    
    Abstract
    Cocoda (Colibri Concordance Database for library classification systems) ist ein semi-automatisches, webbasiertes Tool für die Erstellung und Verwaltung von Konkordanzen zwischen bibliothekarischen Klassifikationssystemen. Das Tool wird im Rahmen des Teilprojektes "coli-conc" (Colibri-Konkordanzerstellung) des VZG-Projektes Colibri/DDC als eine Open-Source-Software an der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) entwickelt. Im Fokus des Projektes "coli-conc" steht zunächst die Konkordanzbildung zwischen der Dewey Dezimal Klassifikation (DDC) und der Regensburger Verbundklassifikation (RVK). Die inhärenten strukturellen und kulturellen Unterschiede von solch fein gegliederten bibliothekarischen Klassifikationssystemen machen den Konkordanzerstellungsprozess bei rein intellektuellem Ansatz aufwendig und zeitraubend. Um diesen zu vereinfachen und zu beschleunigen, werden die intellektuellen Schritte, die im Teilprojekt "coli-conc" eingesetzt werden, z. T. vom Konkordanztool "Cocoda" automatisch durchgeführt. Die von Cocoda erzeugten Konkordanz-Vorschläge stammen sowohl aus der automatischen Analyse der vergebenen Notationen in den Titeldatensätzen verschiedener Datenbanken als auch aus der vergleichenden Analyse der Begriffswelt der Klassifikationssysteme. Ferner soll "Cocoda" als eine Plattform für die Speicherung, Bereitstellung und Analyse von Konkordanzen dienen, um die Nutzungseffizienz der Konkordanzen zu erhöhen. In dieser Präsentation wird zuerst das Konkordanzprojekt "coli-conc", das die Basis des Konkordanztools "Cocoda" bildet, vorgestellt. Danach werden Algorithmus, Benutzeroberfläche und technische Details des Tools dargelegt. Anhand von Beispielen wird der Konkordanzerstellungsprozess mit Cocoda demonstriert.
  11. Eble, M.; Kirch, S.: Wissenstransfer und Medienerschließung : Werkzeuge für die Integration von Multimedia-Inhalten in das Wissensmanagement (2013) 0.01
    0.011078839 = product of:
      0.049854778 = sum of:
        0.0089812735 = weight(_text_:of in 4912) [ClassicSimilarity], result of:
          0.0089812735 = score(doc=4912,freq=4.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.14660224 = fieldWeight in 4912, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=4912)
        0.040873505 = weight(_text_:software in 4912) [ClassicSimilarity], result of:
          0.040873505 = score(doc=4912,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.2629875 = fieldWeight in 4912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=4912)
      0.22222222 = coord(2/9)
    
    Abstract
    Für Speicherung und Transfer von Wissen setzen Unternehmen neben Textdaten verstärkt auch audio-visuelle Daten ein. Beispiele dafür sind Schulungsvideos für Produktionsanlagen oder Podcasts zu Forschungsthemen. Damit stellt sich die Frage, welche Werkzeuge sich für die Integration von Multimedia-Inhalten in Systeme des Wissensmanagements eignen und wie solche Inhalte in Enterprise-Suchmaschinen eingebunden werden können. Der Beitrag skizziert diesen Ausgangspunkt und gibt eine Übersicht über Anbieter und Werkzeuge zur Erschließung von Bilddaten (z. B. aus Digitalisierungs-Projekten) sowie von audio-visuellen Daten. Er konzentriert sich auf Werkzeuge, die als Software as a Service genutzt werden können und listet Kriterien zur technischen Evaluation solcher Lösungen auf. Der Beitrag basiert auf Beratungs- und Entwicklungsprojekten zu automatischer Medienerschließung, Multimedia Indexing und Enterprise Search.
    Source
    Open journal of knowledge management. 2013, Ausgabe VII = http://www.community-of-knowledge.de/beitrag/wissenstransfer-und-medienerschliessung-werkzeuge-fuer-die-integration-von-multimedia-inhalten-in-d/
  12. Scobel, G.: GPT: Eine Software, die die Welt verändert (2023) 0.01
    0.0107044205 = product of:
      0.096339785 = sum of:
        0.096339785 = weight(_text_:software in 839) [ClassicSimilarity], result of:
          0.096339785 = score(doc=839,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.6198675 = fieldWeight in 839, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.078125 = fieldNorm(doc=839)
      0.11111111 = coord(1/9)
    
    Abstract
    GPT-3 ist eine jener Entwicklungen, die binnen weniger Monate an Einfluss und Reichweite zulegen. Die Software wird sich massiv auf Ökonomie und Gesellschaft auswirken.
  13. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.01
    0.010494272 = product of:
      0.047224224 = sum of:
        0.0063507194 = weight(_text_:of in 2434) [ClassicSimilarity], result of:
          0.0063507194 = score(doc=2434,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.103663445 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
        0.040873505 = weight(_text_:software in 2434) [ClassicSimilarity], result of:
          0.040873505 = score(doc=2434,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.2629875 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
      0.22222222 = coord(2/9)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert, berichtet Technology Review in seiner Online-Ausgabe. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbstständig ermittelt.""
  14. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.01
    0.0095043825 = product of:
      0.042769723 = sum of:
        0.004233813 = weight(_text_:of in 935) [ClassicSimilarity], result of:
          0.004233813 = score(doc=935,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.06910896 = fieldWeight in 935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.03853591 = weight(_text_:software in 935) [ClassicSimilarity], result of:
          0.03853591 = score(doc=935,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.24794699 = fieldWeight in 935, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
      0.22222222 = coord(2/9)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
  15. Rapp, F.; Kombrink, S.; Kushnarenko, V.; Fratz, M.; Scharon, D.: SARA-Dienst : Software langfristig verfügbar machen (2018) 0.01
    0.009270299 = product of:
      0.08343269 = sum of:
        0.08343269 = weight(_text_:software in 4356) [ClassicSimilarity], result of:
          0.08343269 = score(doc=4356,freq=12.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.53682095 = fieldWeight in 4356, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4356)
      0.11111111 = coord(1/9)
    
    Abstract
    Software spielt in vielen Disziplinen eine wichtige Rolle im Forschungsprozess. Sie ist entweder selbst Gegenstand der Forschung oder wird als Hilfsmittel zur Erfassung, Verarbeitung und Analyse von Forschungsdaten eingesetzt. Zur Nachvollziehbarkeit der durchgeführten Forschung sollte Software langfristig verfügbar gemacht werden. Im SARA-Projekt zwischen der Universität Konstanz und der Universität Ulm wird ein Dienst entwickelt, der versucht die Einschränkungen bereits bestehender Angebote aufzuheben. Dies beinhaltet u.a. die Möglichkeit, die gesamte Entwicklungshistorie auf einfache Weise mitzuveröffentlichen und für Dritte zur Online-Exploration anzubieten. Zudem bestimmen die Forschenden den Zeitpunkt und Umfang der zu archivierenden/veröffentlichenden Software-Artefakte selbst. Der SARA-Dienst sieht auch die Möglichkeit vor, eine Archivierung ohne Veröffentlichung vorzunehmen. Der geplante Dienst verbindet bereits bestehende Publikations- und Forschungsinfrastrukturen miteinander. Er ermöglicht aus der Arbeitsumgebung der Forschenden heraus eine Archivierung und Veröffentlichung von Software und unterstützt Forschende dabei, bereits prozessbegleitend Zwischenstände ihrer Forschung festzuhalten. Aufgrund seines modularen Aufbaus kann der SARA-Dienst in unterschiedlichen Szenarien zum Einsatz kommen, beispielsweise als kooperativer Dienst für mehrere Einrichtungen. Er stellt eine sinnvolle Ergänzung zu bestehenden Angeboten im Forschungsdatenmanagement dar.
    Form
    Software
  16. Herb, U.: Wie teuer muss Open Access sein? (2016) 0.01
    0.009083001 = product of:
      0.08174701 = sum of:
        0.08174701 = weight(_text_:software in 2620) [ClassicSimilarity], result of:
          0.08174701 = score(doc=2620,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.525975 = fieldWeight in 2620, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.09375 = fieldNorm(doc=2620)
      0.11111111 = coord(1/9)
    
    Abstract
    Neuartige Workflow-Software für Open-Access-Journale verfügbar.
  17. Talbot, D.: Durchblick im Infodschungel (2009) 0.01
    0.008864028 = product of:
      0.03988813 = sum of:
        0.0044906368 = weight(_text_:of in 2865) [ClassicSimilarity], result of:
          0.0044906368 = score(doc=2865,freq=4.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.07330112 = fieldWeight in 2865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
        0.035397492 = weight(_text_:software in 2865) [ClassicSimilarity], result of:
          0.035397492 = score(doc=2865,freq=6.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.22775385 = fieldWeight in 2865, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
      0.22222222 = coord(2/9)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.
    Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
  18. Böller, N.; Herget, J.; Hierl, S.: Knowledge-enhancing Helix : Herausbildung und Entwicklung von Informations- und Medienkompetenz durch systemgestütztes kollaboratives Arbeiten in der universitären Ausbildung. Eine Fallstudie (2007) 0.01
    0.008745227 = product of:
      0.03935352 = sum of:
        0.005292266 = weight(_text_:of in 707) [ClassicSimilarity], result of:
          0.005292266 = score(doc=707,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.086386204 = fieldWeight in 707, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=707)
        0.034061253 = weight(_text_:software in 707) [ClassicSimilarity], result of:
          0.034061253 = score(doc=707,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.21915624 = fieldWeight in 707, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=707)
      0.22222222 = coord(2/9)
    
    Abstract
    Informations- und Medienkompetenz gehören in der Informationsgesellschaft zu den wichtigsten Schlüsselqualifikationen. Ebenso gewinnen Aspekte wie Teamarbeit und Wissensaustausch im Berufsleben zunehmend an Bedeutung; kollaborative Arbeitsstile werden in der neuen informationell vernetzten Arbeitsumgebung dominant. Die berufsqualifizierende Ausbildung an Hochschulen ist somit mit immer neuen Herausforderungen konfrontiert: traditionelle Formen und Methoden der Hochschullehre wie das Schreiben wissenschaftlicher Arbeiten, Vorlesungen, Referate, Seminare oder Gruppenarbeiten genügen nicht mehr, um all diese Kompetenzen herauszubilden und den Herausforderungen des Berufslebens und der Informationsgesellschaft gerecht zu werden. Das Konzept "DIAMOND" (DIdactical Approach for Media cOmpeteNce Development) schafft einen Bezugrahmen für eine in das Curriculum integrierte umfassende und aktive Vermittlung von Methoden-, Sozial-, Fach-, Medien- und Informationskompetenz. Das über mehrere Jahre hinweg entwickelte und mehrfach erprobte Kursframework folgt einem aus sechs Bausteinen bestehendem Modell. Jeder Baustein (kontextuell, technisch, didaktisch, methodisch, pädagogisch, inhaltlich) besteht aus verschiedenen Aspekten, die in ihrer Gesamtheit die Herausbildung und Entwicklung von Schlüsselkompetenzen bei Studierenden ermöglichen und fördern. Der zugrundeliegende Ansatz des Blended Learning wird hierbei in mehrwertschaffender Form mit diversen neuen Medien und Systemunterstützungen (Topic Map basierte eLearningwebseite, Mediawiki, Lernplattform etc.) ergänzt, die in einem den Lehr- und Lernpozess unterstützenden Framework integriert sind. Ein Schwerpunkt liegt dabei auf einem kollaborativen Ansatz mit Hilfe einer WIKI-Software. Dieser umfassende didaktische Ansatz wird seit mehreren Jahren im ersten Semester des Studiums der Informationswissenschaft an der Hochschule für Technik und Wirtschaft Chur (HTW), University of Applied Science, im Grundlagenmodul erfolgreich eingesetzt und kontinuierlich weiterentwickelt.
  19. Kende, J.: Software as a Service : Herausforderungen bei der Einführung des Bibliothekssystems Alma in der Freien Universität Berlin (2015) 0.01
    0.008563536 = product of:
      0.07707182 = sum of:
        0.07707182 = weight(_text_:software in 2475) [ClassicSimilarity], result of:
          0.07707182 = score(doc=2475,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.49589399 = fieldWeight in 2475, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=2475)
      0.11111111 = coord(1/9)
    
    Abstract
    Moderne Bibliothekssysteme werden zunehmend als Software as a Service (SaaS) angeboten. Die Berliner Bibliotheken der Freien Universität Berlin, der Humboldt Universität, der Technischen Universität und der Universität der Künste haben für 2016 gemeinsam den Umstieg auf das cloudbasierte Bibliothekssystem Alma beschlossen. Der Aufsatz berichtet über die Herausforderungen während der zweijährigen Vertragsverhandlungen mit besonderem Augenmerk auf den Datenschutz.
  20. Kim, T.C.-w.K.; Zumstein, P.: Semiautomatische Katalogisierung und Normdatenverknüpfung mit Zotero im Index Theologicus (2016) 0.01
    0.008563536 = product of:
      0.07707182 = sum of:
        0.07707182 = weight(_text_:software in 3064) [ClassicSimilarity], result of:
          0.07707182 = score(doc=3064,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.49589399 = fieldWeight in 3064, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=3064)
      0.11111111 = coord(1/9)
    
    Abstract
    Im Folgenden soll aufgezeigt werden, wie derzeit das Literaturverwaltungsprogramm Zotero innerhalb des Index Theologicus genutzt wird, um unselbstständige Literatur in einem bibliothekarischen Katalogisierungssystem zu erfassen. Die modulare und flexible Architektur der Open Source Software erlaubt es, die bereits kollaborativ zusammengetragene Programmierarbeit zur Datenextraktion mitzunutzen. Das vorgestellte semiautomatische Verfahren bringt auch bei der Verknüpfung von Normdaten erhebliche Vorteile für die Medienbearbeitung.
    Theme
    Bibliographische Software

Years

Types

  • a 98
  • i 12
  • r 7
  • m 6
  • x 5
  • s 3
  • b 2
  • n 1
  • p 1
  • More… Less…