Search (7 results, page 1 of 1)

  • × classification_ss:"020"
  1. Witschel, H.F.: Terminologie-Extraktion : Möglichkeiten der Kombination statistischer uns musterbasierter Verfahren (2004) 0.01
    0.00651085 = product of:
      0.0390651 = sum of:
        0.0390651 = weight(_text_:wissen in 123) [ClassicSimilarity], result of:
          0.0390651 = score(doc=123,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.23825617 = fieldWeight in 123, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.0390625 = fieldNorm(doc=123)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Suche nach Informationen in unstrukturierten natürlichsprachlichen Daten ist Gegenstand des sogenannten Text Mining. In dieser Arbeit wird ein Teilgebiet des Text Mining beleuchtet, nämlich die Extraktion domänenspezifischer Fachbegriffe aus Fachtexten der jeweiligen Domäne. Wofür überhaupt Terminologie-Extraktion? Die Antwort darauf ist einfach: der Schlüssel zum Verständnis vieler Fachgebiete liegt in der Kenntnis der zugehörigen Terminologie. Natürlich genügt es nicht, nur eine Liste der Fachtermini einer Domäne zu kennen, um diese zu durchdringen. Eine solche Liste ist aber eine wichtige Voraussetzung für die Erstellung von Fachwörterbüchern (man denke z.B. an Nachschlagewerke wie das klinische Wörterbuch "Pschyrembel"): zunächst muß geklärt werden, welche Begriffe in das Wörterbuch aufgenommen werden sollen, bevor man sich Gedanken um die genaue Definition der einzelnen Termini machen kann. Ein Fachwörterbuch sollte genau diejenigen Begriffe einer Domäne beinhalten, welche Gegenstand der Forschung in diesem Gebiet sind oder waren. Was liegt also näher, als entsprechende Fachliteratur zu betrachten und das darin enthaltene Wissen in Form von Fachtermini zu extrahieren? Darüberhinaus sind weitere Anwendungen der Terminologie-Extraktion denkbar, wie z.B. die automatische Beschlagwortung von Texten oder die Erstellung sogenannter Topic Maps, welche wichtige Begriffe zu einem Thema darstellt und in Beziehung setzt. Es muß also zunächst die Frage geklärt werden, was Terminologie eigentlich ist, vor allem aber werden verschiedene Methoden entwickelt, welche die Eigenschaften von Fachtermini ausnutzen, um diese aufzufinden. Die Verfahren werden aus den linguistischen und 'statistischen' Charakteristika von Fachbegriffen hergeleitet und auf geeignete Weise kombiniert.
  2. Franz, G.: ¬Die vielen Wikipedias : Vielsprachigkeit als Zugang zu einer globalisierten Online-Welt (2011) 0.01
    0.0052086804 = product of:
      0.031252082 = sum of:
        0.031252082 = weight(_text_:wissen in 568) [ClassicSimilarity], result of:
          0.031252082 = score(doc=568,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.19060494 = fieldWeight in 568, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.03125 = fieldNorm(doc=568)
      0.16666667 = coord(1/6)
    
    Abstract
    Mittlerweile sind mehr als zehn Jahre seit der Gründung der Wikipedia vergangen. Die kollaborativ zusammengestellte Online-Enzyklopädie blickt auf eine beispiellose Erfolgsgeschichte zurück und hat inzwischen sogar viele klassische Lexika das Fürchten gelehrt. Aber: Es gibt gar nicht die eine Wikipedia! Stattdessen handelt es sich bei dem Projekt um hunderte verschiedene, weitgehend voneinander unabhängig agierende Sprachversionen. Sie sind nicht nur unterschiedlich groß, sondern bestehen auch aus differierenden Inhalten. Artikel zu ein und demselben Stichwort können von Wikipedia zu Wikipedia erheblich voneinander abweichen. Von der Gemeinschaft bereits erarbeitetes Wissen steht daher nicht allen Nutzern in der Welt gleichermaßen zur Verfügung. Mit einem forcierten interlingualen Wissensaustausch ließe es sich aber für eine gegenseitige Bereicherung der Wikipedias nutzen. Das Buch gibt zunächst einen allgemeinen Überblick zur Wikipedia, geht auf ihre Entstehung, ihre Funktionsweise und auf die beteiligten Akteure ein. Auch das "Erfolgsgeheimnis" des Nachschlagewerks sowie aktuelle Herausforderungen werden herausgearbeitet. Die anschließende Untersuchung zeigt, wie sehr verschieden große Wikipedias voneinander differieren und wo die Unterschiede im Einzelnen liegen. Danach folgt eine Vorstellung von Ansätzen, Werkzeugen und Schwierigkeiten des interlingualen Wissensaustauschs zwischen den Sprachversionen. Der letzte Teil entwirft schließlich ein detailliertes Konzept für einen neuartigen Wissensaustausch, das aus mehreren ineinandergreifenden Komponenten rund um den Kern einer speziellen Übersetzungsoberfläche besteht. Das Konzept lässt sich auch als Blaupause für Lokalisierungsbemühungen multisprachlicher Wikis nutzen, wie sie international operierende Unternehmungen zunehmend einsetzen. Die Ausarbeitung, auf der dieses Buch basiert, wurde mit dem FHP-Preis 2011 für die beste Abschlussarbeit im Studiengang "Information und Dokumentation" der FH Potsdam ausgezeichnet.
  3. Vickery, B.C.; Vickery, A.: Information science in theory and practice (2004) 0.00
    0.0039533796 = product of:
      0.023720277 = sum of:
        0.023720277 = weight(_text_:geschichte in 4320) [ClassicSimilarity], result of:
          0.023720277 = score(doc=4320,freq=2.0), product of:
            0.18068628 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.038016807 = queryNorm
            0.1312788 = fieldWeight in 4320, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
      0.16666667 = coord(1/6)
    
    Footnote
    Rez. in: BuB 56(2004) H.12, S.743 (H, Meinhardt): "1987 erstmals erschienen und seitdem ein Klassiker unter den Lehrbüchern im Feld der Information Science, liegt nunmehr die dritte, deutlich veränderte Auflage vor. Notwendig geworden war die Überarbeitung vor allem durch die Dynamik im Bereich der Informationstechnologien und deren Auswirkungen sowohl auf die Praxis der Informationsspezialisten wie auch die Disziplin selber. Augenfälligste Veränderung ist denn auch ein neues Kapitel zu »Internet und Informationswissenschaft«. »Chemical librarians« Zunächst einige Worte zu den Autoren, die dem einen oder anderen vielleicht nicht bekannt sind: Brian C. Vickery und Alina Vickery sind beide von ihrer Ausbildung her Chemiker und waren als Ehepartner (Alina Vickery starb Ende 2001) auch beruflich vielfältig gemeinsam tätig. Wie viele Chemiker (man denke nur Eugene Garfield, den Begründer der modernen Szientometrie) sensibilisiert für den Umgang mit enormen Informationsmengen und damit Informationsproblemen, zudem als »chemical librarian« (Brian C. Vickery) und Mitarbeiter von chemischen Fachzeitschriften auch professionell beschäftigt mit Fragen des Fachinformationstransfers, haben sie sich (insbesondere Brian C. Vickery) frühzeitig und kontinuierlich informationswissenschaftlich betätigt. Resultat ist eine Fülle von Publikationen, vor allem zu den Bereichen Indexieren, Klassifizieren, Information Retrieval, auch zur Geschichte der wissenschaftlichen Kommunikation (alle Arbeiten sind im Anhang aufgelistet). Brian C. Vickery war außerdem, das dürfte für Bibliothekare von Interesse sein, als Deputy beim Aufbau der National Lending Library for Science and Technology (NLLST) in Boston Spa beteiligt, die ihre Arbeit 1961 aufnahm und 1973 mit in die neu gegründete British Library einging. Und es sei hier schon vorab bemerkt, dass der immer wiederkehrende Bezug von informationswissenschaftlichen Fragestellungen auf die bibliothekarische Praxis ein Vorzug dieses Buches ist.
  4. Greifeneder, E.: Online-Hilfen in OPACs : Analyse deutscher Universitäts-Onlinekataloge (2007) 0.00
    0.0014307647 = product of:
      0.008584588 = sum of:
        0.008584588 = product of:
          0.025753763 = sum of:
            0.025753763 = weight(_text_:22 in 1935) [ClassicSimilarity], result of:
              0.025753763 = score(doc=1935,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.19345059 = fieldWeight in 1935, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1935)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 6.2008 13:03:30
  5. Borgman, C.L.: Big data, little data, no data : scholarship in the networked world (2015) 0.00
    0.0011550018 = product of:
      0.0069300104 = sum of:
        0.0069300104 = product of:
          0.020790031 = sum of:
            0.020790031 = weight(_text_:29 in 2785) [ClassicSimilarity], result of:
              0.020790031 = score(doc=2785,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.15546128 = fieldWeight in 2785, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2785)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    14.10.2013 19:29:54
  6. Bedford, D.: Knowledge architectures : structures and semantics (2021) 0.00
    0.0011446116 = product of:
      0.0068676695 = sum of:
        0.0068676695 = product of:
          0.020603009 = sum of:
            0.020603009 = weight(_text_:22 in 566) [ClassicSimilarity], result of:
              0.020603009 = score(doc=566,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.15476047 = fieldWeight in 566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=566)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Content
    Section 1 Context and purpose of knowledge architecture -- 1 Making the case for knowledge architecture -- 2 The landscape of knowledge assets -- 3 Knowledge architecture and design -- 4 Knowledge architecture reference model -- 5 Knowledge architecture segments -- Section 2 Designing for availability -- 6 Knowledge object modeling -- 7 Knowledge structures for encoding, formatting, and packaging -- 8 Functional architecture for identification and distinction -- 9 Functional architectures for knowledge asset disposition and destruction -- 10 Functional architecture designs for knowledge preservation and conservation -- Section 3 Designing for accessibility -- 11 Functional architectures for knowledge seeking and discovery -- 12 Functional architecture for knowledge search -- 13 Functional architecture for knowledge categorization -- 14 Functional architectures for indexing and keywording -- 15 Functional architecture for knowledge semantics -- 16 Functional architecture for knowledge abstraction and surrogation -- Section 4 Functional architectures to support knowledge consumption -- 17 Functional architecture for knowledge augmentation, derivation, and synthesis -- 18 Functional architecture to manage risk and harm -- 19 Functional architectures for knowledge authentication and provenance -- 20 Functional architectures for securing knowledge assets -- 21 Functional architectures for authorization and asset management -- Section 5 Pulling it all together - the big picture knowledge architecture -- 22 Functional architecture for knowledge metadata and metainformation -- 23 The whole knowledge architecture - pulling it all together
  7. Gartner, R.: Metadata in the digital library : building an integrated strategy with XML (2021) 0.00
    8.662513E-4 = product of:
      0.005197508 = sum of:
        0.005197508 = product of:
          0.015592523 = sum of:
            0.015592523 = weight(_text_:29 in 732) [ClassicSimilarity], result of:
              0.015592523 = score(doc=732,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.11659596 = fieldWeight in 732, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=732)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 9.2022 17:57:57

Languages