Search (34 results, page 1 of 2)

  • × type_ss:"x"
  • × language_ss:"d"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.27
    0.2655882 = product of:
      0.5311764 = sum of:
        0.1327941 = product of:
          0.39838228 = sum of:
            0.39838228 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.39838228 = score(doc=973,freq=2.0), product of:
                0.35442126 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.041804764 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.39838228 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.39838228 = score(doc=973,freq=2.0), product of:
            0.35442126 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.041804764 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.11
    0.110661745 = product of:
      0.22132349 = sum of:
        0.055330873 = product of:
          0.16599262 = sum of:
            0.16599262 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.16599262 = score(doc=4388,freq=2.0), product of:
                0.35442126 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.041804764 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.16599262 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.16599262 = score(doc=4388,freq=2.0), product of:
            0.35442126 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.041804764 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(2/4)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.11
    0.110661745 = product of:
      0.22132349 = sum of:
        0.055330873 = product of:
          0.16599262 = sum of:
            0.16599262 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.16599262 = score(doc=1000,freq=2.0), product of:
                0.35442126 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.041804764 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.16599262 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.16599262 = score(doc=1000,freq=2.0), product of:
            0.35442126 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.041804764 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(2/4)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  4. Schmidtke, R.: Auswahl und Implementierung eines Onlinesystems zur Digitalisierung und Umstrukturierung des firmeninternen Branchenarchivs einer Unternehmensberatung für Mergers & Akquisitions (2004) 0.02
    0.02367326 = product of:
      0.09469304 = sum of:
        0.09469304 = product of:
          0.18938608 = sum of:
            0.18938608 = weight(_text_:digitalisierung in 3715) [ClassicSimilarity], result of:
              0.18938608 = score(doc=3715,freq=4.0), product of:
                0.25167027 = queryWeight, product of:
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.041804764 = queryNorm
                0.7525167 = fieldWeight in 3715, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3715)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Für das Branchenarchiv der Unternehmensberatung »Angermann M&A International GmbH« werden bestehende Aufgaben, Strukturen und Anforderungsprofile analysiert mit dem Ziel künftiger Digitalisierung und Umstrukturierung. Anhand des so gewonnen Kriterienkataloges werden mehrere Archivsysteme verglichen, bewertet und ausgewählt, das »vielversprechendste« (?) Programm wird genauer untersucht.
  5. Cieloch, A.: Erarbeitung der Grundlage für die Implementierung der Bilddatenbank IPS im Unternehmens- und Pressearchiv der OTTO Group (2004) 0.02
    0.016739521 = product of:
      0.066958085 = sum of:
        0.066958085 = product of:
          0.13391617 = sum of:
            0.13391617 = weight(_text_:digitalisierung in 2369) [ClassicSimilarity], result of:
              0.13391617 = score(doc=2369,freq=2.0), product of:
                0.25167027 = queryWeight, product of:
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.041804764 = queryNorm
                0.5321096 = fieldWeight in 2369, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2369)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Ziel ist die Digitalisierung des analogen »OTTO« Bildarchivs. Behandelt werden unterschiedliche Scannerarten, ihre Anwendungsbereiche und Kaufkriterien, deren technische Parameter für die Scann-Qualität, ihre unterschiedlichen Farbsysteme, Bildformate und deren Kompression, optischen Archivierungsmedien, Reproduktion, Datenorganisation bei Browsing-Diensten und schließlich ein Kategoriensystem, das in das im Unternehmen vorhandene Bilddatenbanksystem IPS aufgenommen werden soll.
  6. Krieg, K.: Weniger ODER - mehr UND : aktuelle Entwicklung im strategischen Dokumentenmanagement aus informationswissenschaftlicher Sicht (2004) 0.02
    0.016739521 = product of:
      0.066958085 = sum of:
        0.066958085 = product of:
          0.13391617 = sum of:
            0.13391617 = weight(_text_:digitalisierung in 3716) [ClassicSimilarity], result of:
              0.13391617 = score(doc=3716,freq=2.0), product of:
                0.25167027 = queryWeight, product of:
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.041804764 = queryNorm
                0.5321096 = fieldWeight in 3716, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3716)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Digitalisierung von Dokumenten und damit verbundenen Integrationsbestrebungen von Abläufen und Funktionen ändern sich die Anforderungen an das Dokumentenmanagement, das in Enterprise Content Management (ECM) aufgeht. Untersucht wird das Dokumentenmanagement vor allem aus informationswissenschaftlicher Sicht: Methoden der Informationsgewinnung, Informationsverwaltung in Informationssystemen und Information als Produktionsfaktor. Ein Engpaß ist die Dokumentenerschließung, weil arbeitsintensiv und deshalb kostspielig. Professionelles Dokumentenmanagement erfordert jedoch strategische, zukunftssichernde Entscheidungen.
  7. Siegmüller, R.: Verfahren der automatischen Indexierung in bibliotheksbezogenen Anwendungen : Funktion und Qualität (2007) 0.02
    0.016739521 = product of:
      0.066958085 = sum of:
        0.066958085 = product of:
          0.13391617 = sum of:
            0.13391617 = weight(_text_:digitalisierung in 1407) [ClassicSimilarity], result of:
              0.13391617 = score(doc=1407,freq=2.0), product of:
                0.25167027 = queryWeight, product of:
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.041804764 = queryNorm
                0.5321096 = fieldWeight in 1407, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1407)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die Arbeit beschäftigt sich mit den Verfahren der automatischen Indexierung und ihrem Einsatz in wissenschaftlichen Bibliotheken. Der Aspekt wird nicht nur im Hinblick auf den klassischen Online-Katalog, sondern auch auf die im Rahmen des Internet und der Digitalisierung sich ergebende Ausweitung bibliothekarischer Angebote betrachtet. Durch die Entwicklung zu Portalen, zu einer intensiveren Erschließung und zur Integration von Netzpublikationen ergeben sich neue Rahmenbedingungen für das Thema. Eine Auswahl konkret eingesetzter Verfahren wird hinsichtlich ihres spezifischen Ansatzes, des aktuellen Standes und der Perspektiven im Bibliotheksbereich diskutiert.
  8. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.01
    0.014647081 = product of:
      0.058588322 = sum of:
        0.058588322 = product of:
          0.117176645 = sum of:
            0.117176645 = weight(_text_:digitalisierung in 2192) [ClassicSimilarity], result of:
              0.117176645 = score(doc=2192,freq=2.0), product of:
                0.25167027 = queryWeight, product of:
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.041804764 = queryNorm
                0.4655959 = fieldWeight in 2192, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2192)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Immer mehr Informationsobjekte werden in digitaler Form publiziert. In der vorliegenden Arbeit werden die Auswirkungen der Digitalisierung auf bibliothekarische Erschließungsmethoden dargestellt: einerseits die Funktion der Auszeichnungssprachen SGML, HTML und XML als Erschließungsinstrumente, andererseits der von bibliothekarischer Seite entwickelte Metadatenstandard Dublin Core. Am Praxisbeispiel "Dokumentenmanagement einer Nichtregierungsorganisation" wird untersucht, ob die Erschließung verbessert werden könnte durch z.B. Optimierung der Volltextindizierung, standardisierte Metadaten oder Integration von Metadaten und Suchmaschinentechnologie. Mithilfe einer Benutzerbefragung werden diese Ansätze an der Praxis gemessen und konkrete Empfehlungen entwickelt. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h136/.
  9. Rohner, M.: Betrachtung der Data Visualization Literacy in der angestrebten Schweizer Informationsgesellschaft (2018) 0.01
    0.012554641 = product of:
      0.050218564 = sum of:
        0.050218564 = product of:
          0.10043713 = sum of:
            0.10043713 = weight(_text_:digitalisierung in 4585) [ClassicSimilarity], result of:
              0.10043713 = score(doc=4585,freq=2.0), product of:
                0.25167027 = queryWeight, product of:
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.041804764 = queryNorm
                0.3990822 = fieldWeight in 4585, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4585)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Datenvisualisierungen sind ein wichtiges Werkzeug, um Inhalte und Muster in Datensätzen zu erkennen und ermöglichen so auch Laien den Zugang zu der Information, die in Datensätzen steckt. Data Visualization Literacy ist die Kompetenz, Datenvisualisierungen zu lesen, zu verstehen, zu hinterfragen und herzustellen. Data Visulaization Literacy ist daher eine wichtige Kompetenz der Informationsgesellschaft. Im Auftrag des Bundesrates hat das Bundesamt für Kommunikation BAKOM die Strategie "Digitale Schweiz" entwickelt. Die Strategie zeigt auf, wie die fortschreitende Digitalisierung genutzt und die Schweiz zu einer Informationsgesellschaft entwickelt werden soll. In der vorliegenden Arbeit wird untersucht, inwiefern die Strategie "Digitale Schweiz" die Förderung von Data Visualization Literacy in der Bevölkerung unterstützt. Dazu werden die Kompetenzen der Data Visualization Literacy ermittelt, Kompetenzstellen innerhalb des Bildungssystems benannt und die Massnahmen der Strategie in Bezug auf Data Visualization Literacy überprüft.
  10. Stünkel, M.: Neuere Methoden der inhaltlichen Erschließung schöner Literatur in öffentlichen Bibliotheken (1986) 0.01
    0.011327937 = product of:
      0.04531175 = sum of:
        0.04531175 = product of:
          0.0906235 = sum of:
            0.0906235 = weight(_text_:22 in 5815) [ClassicSimilarity], result of:
              0.0906235 = score(doc=5815,freq=2.0), product of:
                0.14639316 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041804764 = queryNorm
                0.61904186 = fieldWeight in 5815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5815)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    4. 8.2006 21:35:22
  11. Schulz, T.: Konzeption und prototypische Entwicklung eines Thesaurus für IT-Konzepte an Hochschulen (2021) 0.01
    0.010462201 = product of:
      0.041848805 = sum of:
        0.041848805 = product of:
          0.08369761 = sum of:
            0.08369761 = weight(_text_:digitalisierung in 429) [ClassicSimilarity], result of:
              0.08369761 = score(doc=429,freq=2.0), product of:
                0.25167027 = queryWeight, product of:
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.041804764 = queryNorm
                0.33256853 = fieldWeight in 429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=429)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    In Hochschulen besteht derzeit ein großes Anliegen, die Digitalisierung effektiv und effizient für Prozesse in Steuerungsbereichen zu nutzen. Dabei steht die IT-Governance im Mittelpunkt der hochschulpolitischen Überlegungen und beinhaltet "die interne Steuerung und Koordination von Entscheidungsprozessen in Bezug auf IT-Steuerung beziehungsweise Digitalisierungsmaßnahmen."(Christmann-Budian et al. 2018) Strategisch kann die Bündelung von Kompetenzen in der deutschen Hochschullandschaft dabei helfen, die steigenden Anforderungen an die IT-Governance zu erfüllen. Passend zu diesem Ansatz realisieren aktuell im ZDT zusammengeschlossene Hochschulen das Projekt "IT-Konzepte - Portfolio gemeinsamer Vorlagen und Muster". Das Projekt schließt an die Problemstellung an, indem Kompetenzen gebündelt und alle Hochschulen befähigt werden, IT-Konzepte erarbeiten und verabschieden zu können. Dazu wird ein Portfolio an Muster und Vorlagen als Ressourcenpool zusammengetragen und referenziert, um eine Nachvollziehbarkeit der Vielfalt an Herausgebern gewährleisten zu können (Meister 2020). Um den Ressourcenpool, welcher einen Body of Knowledge (BoK) darstellt, effizient durchsuchen zu können, ist eine sinnvolle Struktur unabdinglich. Daher setzt sich das Ziel der Bachelorarbeit aus der Analyse von hochschulinternen Dokumenten mithilfe von Natural Language Processing (NLP) und die daraus resultierende Entwicklung eines Thesaurus-Prototyps für IT-Konzepte zusammen. Dieser soll im Anschluss serialisiert und automatisiert werden, um diesen fortlaufend auf einem aktuellen Stand zu halten. Es wird sich mit der Frage beschäftigt, wie ein Thesaurus nachhaltig technologisch, systematisch und konsistent erstellt werden kann, um diesen Prozess im späteren Verlauf als Grundlage für weitere Themenbereiche einzuführen.
  12. Menges, T.: Möglichkeiten und Grenzen der Übertragbarkeit eines Buches auf Hypertext am Beispiel einer französischen Grundgrammatik (Klein; Kleineidam) (1997) 0.01
    0.009911945 = product of:
      0.03964778 = sum of:
        0.03964778 = product of:
          0.07929556 = sum of:
            0.07929556 = weight(_text_:22 in 1496) [ClassicSimilarity], result of:
              0.07929556 = score(doc=1496,freq=2.0), product of:
                0.14639316 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041804764 = queryNorm
                0.5416616 = fieldWeight in 1496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1496)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 7.1998 18:23:25
  13. Schneider, A.: ¬Die Verzeichnung und sachliche Erschließung der Belletristik in Kaysers Bücherlexikon und im Schlagwortkatalog Georg/Ost (1980) 0.01
    0.009911945 = product of:
      0.03964778 = sum of:
        0.03964778 = product of:
          0.07929556 = sum of:
            0.07929556 = weight(_text_:22 in 5309) [ClassicSimilarity], result of:
              0.07929556 = score(doc=5309,freq=2.0), product of:
                0.14639316 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041804764 = queryNorm
                0.5416616 = fieldWeight in 5309, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5309)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    5. 8.2006 13:07:22
  14. Sperling, R.: Anlage von Literaturreferenzen für Onlineressourcen auf einer virtuellen Lernplattform (2004) 0.01
    0.009911945 = product of:
      0.03964778 = sum of:
        0.03964778 = product of:
          0.07929556 = sum of:
            0.07929556 = weight(_text_:22 in 4635) [ClassicSimilarity], result of:
              0.07929556 = score(doc=4635,freq=2.0), product of:
                0.14639316 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041804764 = queryNorm
                0.5416616 = fieldWeight in 4635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4635)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    26.11.2005 18:39:22
  15. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.01
    0.008495953 = product of:
      0.03398381 = sum of:
        0.03398381 = product of:
          0.06796762 = sum of:
            0.06796762 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.06796762 = score(doc=9,freq=2.0), product of:
                0.14639316 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041804764 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 2.1997 19:50:29
  16. Hartwieg, U.: ¬Die nationalbibliographische Situation im 18. Jahrhundert : Vorüberlegungen zur Verzeichnung der deutschen Drucke in einem VD18 (1999) 0.01
    0.008495953 = product of:
      0.03398381 = sum of:
        0.03398381 = product of:
          0.06796762 = sum of:
            0.06796762 = weight(_text_:22 in 3813) [ClassicSimilarity], result of:
              0.06796762 = score(doc=3813,freq=2.0), product of:
                0.14639316 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041804764 = queryNorm
                0.46428138 = fieldWeight in 3813, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3813)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    18. 6.1999 9:22:36
  17. Milanesi, C.: Möglichkeiten der Kooperation im Rahmen von Subject Gateways : das Euler-Projekt im Vergleich mit weiteren europäischen Projekten (2001) 0.01
    0.008495953 = product of:
      0.03398381 = sum of:
        0.03398381 = product of:
          0.06796762 = sum of:
            0.06796762 = weight(_text_:22 in 4865) [ClassicSimilarity], result of:
              0.06796762 = score(doc=4865,freq=2.0), product of:
                0.14639316 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041804764 = queryNorm
                0.46428138 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 6.2002 19:41:59
  18. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.01
    0.008369761 = product of:
      0.033479042 = sum of:
        0.033479042 = product of:
          0.066958085 = sum of:
            0.066958085 = weight(_text_:digitalisierung in 861) [ClassicSimilarity], result of:
              0.066958085 = score(doc=861,freq=2.0), product of:
                0.25167027 = queryWeight, product of:
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.041804764 = queryNorm
                0.2660548 = fieldWeight in 861, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0201335 = idf(docFreq=291, maxDocs=44218)
                  0.03125 = fieldNorm(doc=861)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
  19. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.007079961 = product of:
      0.028319843 = sum of:
        0.028319843 = product of:
          0.056639686 = sum of:
            0.056639686 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.056639686 = score(doc=3406,freq=2.0), product of:
                0.14639316 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041804764 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    30. 5.2010 16:22:35
  20. Hoffmann, R.: Mailinglisten für den bibliothekarischen Informationsdienst am Beispiel von RABE (2000) 0.01
    0.006007546 = product of:
      0.024030184 = sum of:
        0.024030184 = product of:
          0.04806037 = sum of:
            0.04806037 = weight(_text_:22 in 4441) [ClassicSimilarity], result of:
              0.04806037 = score(doc=4441,freq=4.0), product of:
                0.14639316 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041804764 = queryNorm
                0.32829654 = fieldWeight in 4441, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4441)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 2.2000 10:25:05
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.22