Search (15 results, page 1 of 1)

  • × author_ss:"Lepsky, K."
  1. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.01
    0.010389134 = product of:
      0.031167403 = sum of:
        0.020331 = weight(_text_:des in 3581) [ClassicSimilarity], result of:
          0.020331 = score(doc=3581,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.24477452 = fieldWeight in 3581, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.010836403 = product of:
          0.032509208 = sum of:
            0.032509208 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.032509208 = score(doc=3581,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  2. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.01
    0.00926275 = product of:
      0.0555765 = sum of:
        0.0555765 = product of:
          0.1667295 = sum of:
            0.1667295 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
              0.1667295 = score(doc=5955,freq=2.0), product of:
                0.25428185 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029993102 = queryNorm
                0.65568775 = fieldWeight in 5955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5955)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
  3. Lepsky, K.: Automatisches Indexieren (2023) 0.01
    0.009119183 = product of:
      0.027357548 = sum of:
        0.017789626 = weight(_text_:des in 781) [ClassicSimilarity], result of:
          0.017789626 = score(doc=781,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.2141777 = fieldWeight in 781, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.009567922 = product of:
          0.028703766 = sum of:
            0.028703766 = weight(_text_:29 in 781) [ClassicSimilarity], result of:
              0.028703766 = score(doc=781,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.27205724 = fieldWeight in 781, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=781)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Unter Indexierung versteht man die Zuordnung von inhaltskennzeichnenden Ausdrücken (Indextermen, Indexaten, Erschließungsmerkmalen) zu Dokumenten. Über die zugeteilten Indexterme soll ein gezieltes Auffinden der Dokumente ermöglicht werden. Indexterme können inhaltsbeschreibende Merkmale wie Notationen, Deskriptoren, kontrollierte oder freie Schlagwörter sein; es kann sich auch um reine Stichwörter handeln, die aus dem Text des Dokuments gewonnen werden. Eine Indexierung kann intellektuell, computerunterstützt oder automatisch erfolgen. Computerunterstützte Indexierungsverfahren kombinieren die intellektuelle Indexierung mit automatischen Vorarbeiten. Bei der automatischen Indexierung werden die Indexterme automatisch aus dem Dokumenttext ermittelt und dem Dokument zugeordnet. Automatische Indexierung bedient sich für die Verarbeitung der Zeichenketten im Dokument linguistischer und statistischer Verfahren.
    Date
    24.11.2022 13:29:16
  4. Gödert, W.; Lepsky, K.; Nagelschmidt, M.: Informationserschließung und Automatisches Indexieren : ein Lehr- und Arbeitsbuch (2011) 0.01
    0.0071603297 = product of:
      0.021480989 = sum of:
        0.012706877 = weight(_text_:des in 2550) [ClassicSimilarity], result of:
          0.012706877 = score(doc=2550,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.15298408 = fieldWeight in 2550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2550)
        0.008774111 = product of:
          0.026322333 = sum of:
            0.026322333 = weight(_text_:f in 2550) [ClassicSimilarity], result of:
              0.026322333 = score(doc=2550,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.22018565 = fieldWeight in 2550, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2550)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Buch vermittelt Kenntnisse über die Modellierung dokumentbezogener Metadaten durch praktische Aufgabenstellungen, begleitende theoretische Erläuterungen sowie ergänzende Übungen. Als Beispiele dienen Bilddokumente und bibliografische Daten. Es wird vermittelt, wie entsprechende Datenbanken aufgebaut und mit geeigneten Suchumgebungen ausgestattet werden. Es wird dargestellt und praktisch geübt, wie Kenntnisse über die Struktur der Daten zum Import von Fremddaten genutzt werden können. Zielvorstellung ist der Aufbau von Datenbanken zur formalen und inhaltlichen Erschließung und die Gestaltung von Retrievalumgebungen, für bibliografische Daten auch die Erstellung von Bibliografien. Als Methoden zur inhaltlichen Erschließung werden besonders die semantische Strukturierung von Themenfeldern am Beispiel des aspektorientierten Thesaurus-Konzepts und das Automatische Indexieren bibliografischer Daten behandelt. Abgerundet wird die Darstellung durch die Diskussion von Bezügen zum Aufbau relationaler Datenbanken für bibliografische Daten sowie Hintergründe der Zeichencodierung und Ordnungsfragen.
    Footnote
    Rez. in: ABI Technik 32(2012) H.2, S.113-114 (F. Förster)
  5. Lepsky, K.: Auf dem Weg zur automatischen Inhaltserschließung? : Das DFG-Projekt MILOS und seine Ergebnisse (1997) 0.01
    0.0067770006 = product of:
      0.040662 = sum of:
        0.040662 = weight(_text_:des in 11) [ClassicSimilarity], result of:
          0.040662 = score(doc=11,freq=8.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.48954904 = fieldWeight in 11, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=11)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur Automatischen Indexierung von Titeldaten in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Nutzung innerhalb des von der Deutschen Forschungsgemeinschaft geförderten und an der Universitäts- und Landesbibliothek Düsseldorf durchgeführten Projekts MILOS werden geschildert. Die Ergebnisse eines Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufbauend auf diesen Ergebnissen werden Perspektiven für eine sinnvolle Verbindung von konventioneller bibliothekarischer Sacherschließung und automatischen Verfahren entworfen
    Source
    Mitteilungen der Gesellschaft für Bibliothekswesen und Dokumentation des Landbaus. 1997, H.53, S.46-52
  6. Lepsky, K.: Automatische Indexierung zur Erschließung deutschsprachiger Dokumente (1999) 0.01
    0.005869055 = product of:
      0.03521433 = sum of:
        0.03521433 = weight(_text_:des in 4656) [ClassicSimilarity], result of:
          0.03521433 = score(doc=4656,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.42396194 = fieldWeight in 4656, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur automatischen Indexierung deutschsprachiger Texte in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Entwicklung innerhalb der von der Deutschen Forschungsgemeinschaft geförderte und an der ULB Düsseldorf gemeinsam mit der Fachrichtung Informationswissenschaft der Universität des Saarlandes durchgeführten Projekte MILOS I, MILOS II und KASCADE werden geschildert. Die Ergebnisse von Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufsetzend auf diesen Ergebnissen werden Perspektiven für die bibliothekarische Sacherschließung im Hinblick auf den Einsatz von automatischen Verfahren entworfen
  7. Lepsky, K.; Zimmermann, H.H.: Katalogerweiterung durch Scanning und automatische Dokumenterschließung : Ergebnisse des DFG-Projekts KASCADE (2000) 0.00
    0.0047920635 = product of:
      0.02875238 = sum of:
        0.02875238 = weight(_text_:des in 4966) [ClassicSimilarity], result of:
          0.02875238 = score(doc=4966,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.34616345 = fieldWeight in 4966, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4966)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Beitrag befasst sich mit den Zielen, Inhalten und Ergebnissen des von der DFG geförderten Projekts KASCADE. Für KASCADE wurden Katalogdaten aus dem Fachbereich Rechtswissenschafft um Inhaltsverzeichnisse angereichert. Die angereicherten Titeldaten wurden mit einem erweiterten MILOS-Verfahren automatisch indexiert sowie mit den beiden linguistisch und statistisch basierten Verfahren SELIX und THEAS zusätzlich erschlossen. In einem umfangreichen Retrievaltest wurden die Ergebnisse der automatischen Indexierung und Gewichtung untersucht
  8. Lepsky, K.: Automatische Indexierung und bibliothekarische Inhaltserschließung : Ergebnisse des DFG-Projekts MILOS I (1996) 0.00
    0.004401792 = product of:
      0.02641075 = sum of:
        0.02641075 = weight(_text_:des in 2061) [ClassicSimilarity], result of:
          0.02641075 = score(doc=2061,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.31797147 = fieldWeight in 2061, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2061)
      0.16666667 = coord(1/6)
    
    Abstract
    Kooperative Katalogisierung in der Bibliotheksverbünden und steigende Zahlen retrokonvertierter Altdaten füfhren zu einem stetigen Anwachsen maschinenlesbar verfügbarer Titeldaten. Dieser Entewicklung aud ser Katalogisat- bzw. Datenseite entspricht eine ähnlich rasante Entwicklung auf der Seite der Zugangsmöglichkeiten, den Online-Publikumskatalogen. Immer mehr Katalogdaten von immer mehr Bibliotheken sind in immer mehr OPACs nachgewiesen. Mit dieser auch durch neue Zugriffsformen (Internet) verbesserten Verfügbarkeit hält die bibliothekarische Sacherschließung längst nicht mehr Schritt. In diesem Beitrag werden die Vorgehensweise und Ergebnisse des Projektes MILOS I vorgestellt, das an der Universitäts- und Landesbibliothek zur automatischen Indexierung bibliothekarischer Titeldaten und zur Anreicherung von Katalogdaten durchgeführt wurde.
    Source
    Zukunft der Sacherschließung im OPAC: Vorträge des 2. Düsseldorfer OPAC-Kolloquiums am 21. Juni 1995. Hrsg.: E. Niggemann u. K. Lepsky
  9. Gödert, W.; Lepsky, K.: Semantische Umfeldsuche im Information Retrieval (1998) 0.00
    0.0041930554 = product of:
      0.02515833 = sum of:
        0.02515833 = weight(_text_:des in 606) [ClassicSimilarity], result of:
          0.02515833 = score(doc=606,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.302893 = fieldWeight in 606, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=606)
      0.16666667 = coord(1/6)
    
    Abstract
    Sachliche Suchen in bibliothekarischen Online-Katalogen enden häufig mit unbefriedigenden Ergebnissen. Als eine Ursache dafür kann angesehen werden, daß die Gestaltung des Suchprozesses das semantische Umfeld einer Suchanfrage nicht mit einbezieht, daß in Übertragung der Verhältnisse in konventionellen Katalogen am Paradigma des Wort-Matching zwischen Suchwort und Indexat festgehalten wird. Es wird statt dessen das Konzept einer semantischen Umfeldsuche entwickelt und gezeigt, welche Rolle die Verwendung strukturierten Vokabulars dafür spielen kann. Insbesondere wird dargestellt, welche Möglichkeiten Verfahren der wörterbuchgestützten maschinellen Indexierung in diesem Zusammenhang spielen können. Die Ausführungen werden durch Beispiele illustriert
  10. Lepsky, K.: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte (2006) 0.00
    0.0041930554 = product of:
      0.02515833 = sum of:
        0.02515833 = weight(_text_:des in 6080) [ClassicSimilarity], result of:
          0.02515833 = score(doc=6080,freq=16.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.302893 = fieldWeight in 6080, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6080)
      0.16666667 = coord(1/6)
    
    Abstract
    Digitalisierungsvorhaben sorgen für eine immer größere Verfügbarkeit von Inhalten bislang ausschließlich gedruckt vorliegender Werke, zunehmend auch von ganzen Büchern. Projekte wie "Google Print" versprechen die völlige elektronische Verfügbarkeit von Informationen nahezu unabhängig von Zeit und Ort und sorgen dafür, dass die Hüter der konventionellen Information, die Bibliotheken, in Angst und Schrecken versetzt werden angesichts des befürchteten Verlusts ihrer traditionellen Rolle. Die Debatte kreist dabei eher selten um die Frage, welcher Nutzen sich konkret aus dem elektronischen Volltext ergibt: Der Nutzen steht schlichtweg außer Frage, Volltexte gelten prinzipiell als nützlich. Das ist insofern zu optimistisch, als die reine Verfügbarkeit von Information noch lange nicht fir deren sinnvolle Verwertung sorgt - die bloße Verfügbarkeit des Volltexts von Kants "Kritik der reinen Vernunft" enthebt nicht der Notwendigkeit, das Werk zu lesen und verstehen zu wollen. Lesen wird man besser auch nicht am Bildschirm sondern in der (neu-deutsch) "PrintAusgabe". Elektronische Volltexte von Büchern dienen nicht der Lektüre. Falls ihr Sinn nicht ohnehin ein rein verkaufsfördernder ist (das "Publishers Program" von Google Print erweckt in der Tat diesen Eindruck), bleibt ihr potenzieller Nutzen als Nachschlageinstrument. Nur der Volltext bietet die Möglichkeit, Informationen in einem Werk zu finden, die nicht explizit erschlossen wurden, durch ein Inhaltsverzeichnis etwa oder, eine noch günstigere Ausgangslage, durch ein Sachregister. Allerdings sind die meisten Werke nicht für einen solchen Zweck verfasst worden, d.h. es ist nicht zu erwarten, dass ein Werk über die "Geschichte des Römischen Reiches" im Volltextzugriff zu einem Lexikon zur Geschichte des Römischen Reiches wird. Entspricht also die hinter Google Print und zahllosen anderen Digitalisierungsinitiativen stehende Auffassung einem doch sehr naiven Bild von der Nützlichkeit gedruckter Information?
    Seriöse Information darf erwarten, wer renommierte Nachschlagewerke befragt. Zumindest für die über die Primärordnung (Stichwort/Lemma) erschlossenen Sachverhalte ist für Buchausgaben ein gezielter Zugriff möglich, Verweisungen zwischen Artikeln sorgen für weitere Einstiege. Anzunehmen ist, dass sich der Nutzen von Nachschlagewerken in elektronischer Form noch deutlich erhöhen lässt: Produkte wie z.B. "Brockhaus multimedial" oder "Encyclopedia Britannica" sorgen mit leistungsfähigen Techniken über den wahlfreien Volltextzugriff hinaus für zahlreiche Navigations- und Recherchemöglichkeiten. Es liegt daher nahe, über eine Digitalisierung konventionell vorliegender Nachschlagewerke auch deren Anwendung zu verbessern, die im Print möglichen Zugriffsmöglichkeiten deutlich zu erweitern. Beispiele für diesen Ansatz sind die Digitalisierung der "Oekonomischen Encyklopädie" von Johann Georg Krünitz, die mit hohem Aufwand nicht maschinell (Scanning und OCR) sondern manuell realisiert wurde oder auch die im "Projekt Runeberg' , vorgenommenen zahlreichen Digitalisierungen u.a. auch von Nachschlagewerken. Ob die einfache Volltextindexierung derartig umfangreicher und - weil bereits als Nachschlagewerk konzipiert - gleichzeitig extrem verdichteter Quellen für einen größtmöglichen Nutzen der elektronischen Version ausreicht, darf zu Recht bezweifelt werden. In kommerziellen Produkten sorgen daher zusätzliche Techniken für einerseits thematisch gezielte Zugriffe auch über Nicht-Stichwörter, andererseits für Querverbindungen zu möglicherweise weiteren Artikeln von Interesse ("Wissensnetz" des Brockhaus, "Knowledge Navigator" der Britannica). Es darf angenommen werden, dass derartige Techniken dabei auf Informationen aufsetzen können (Strukturierung der Artikel, gekennzeichnete (getaggte) Personennamen, Querverweise etc.), die in den zu verarbeitenden Artikeln in nutzbarer Form vorliegen. Für digitalisierte Druckausgaben kommen derartige Verfahren nicht in Frage, weil lediglich flache, noch dazu in der Regel mit OCR-Fehlern behaftete Texte vorliegen. Die Zugriffsmöglichkeiten bewegen sich daher zwischen der 1:1-Umsetzung der Druckausgabe, d.h. dem Primärzugriff über Stichwort, und der Volltextsuche auf den vollständigen Lexikontext. Beides ist angesichts der im elektronischen Volltext liegenden Möglichkeiten sicher nicht die Methode der Wahl. Für die Digitalisierung des "Reallexikons zur Deutschen Kunstgeschichte" im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts "RDKWeb" wird daher versucht, mit den Mitteln der Automatischen Indexierung eine Lösung zu erzielen, die über eine reine Volltextsuchmöglichkeit hinaus Suchunterstützungen bietet, die sich an den Fähigkeiten kommerzieller Produkte orientieren (nicht messen!).
  11. Bredack, J.; Lepsky, K.: Automatische Extraktion von Fachterminologie aus Volltexten (2014) 0.00
    0.0033885003 = product of:
      0.020331 = sum of:
        0.020331 = weight(_text_:des in 4872) [ClassicSimilarity], result of:
          0.020331 = score(doc=4872,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.24477452 = fieldWeight in 4872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4872)
      0.16666667 = coord(1/6)
    
    Abstract
    Fachterminologie in wissenschaftlichen Texten liegt häufig in Form von Phrasen oder Mehrwortgruppen vor. Vorgestellt wird ein algorithmisches Verfahren zur Identifikation und Extraktion fachtermi­nologischer Mehrwortgruppen. Besonderer Schwerpunkt ist die Einbindung von Funktionswörtern der deutschen Sprache, um die Extraktion komplexer Mehrwortkonstruktionen zu ermöglichen. Eingesetzt wurde das automatische Indexierungssystem Lingo. Die Ergebnisse für eine Extraktion kunsthistorischer Fachterminologie aus dem Reallexikon zur Deutschen Kunstgeschichte belegen die Tauglichkeit des Verfahrens.
  12. Fühles-Ubach, S.; Schaer, P.; Lepsky, K.; Seidler-de Alwis, R.: Data Librarian : ein neuer Studienschwerpunkt für wissenschaftliche Bibliotheken und Forschungseinrichtungen (2019) 0.00
    0.0029649378 = product of:
      0.017789626 = sum of:
        0.017789626 = weight(_text_:des in 5836) [ClassicSimilarity], result of:
          0.017789626 = score(doc=5836,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.2141777 = fieldWeight in 5836, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5836)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Beitrag beschäftigt sich mit dem neuen Studienschwerpunkt "Data Librarian" im Studiengang "Data and Information Science", der seit dem Wintersemester 2018/19 am Institut für Informationswissenschaft der Technischen Hochschule Köln angeboten wird. Im Rahmen einer gemeinsamen Akkreditierung aller Bachelor-Studiengänge des Instituts entwickelt, bündelt bzw. vermittelt er u. a. umfassende Kenntnisse in den Bereichen Datenstrukturen, Datenverarbeitung, Informationssysteme, Datenanalyse und Information Research in den ersten Semestern. Das sechsmonatige Praxissemester findet in einer wissenschaftlichen Bibliothek oder Informationseinrichtung statt, bevor die Schwerpunkte Forschungsdaten I+II, Wissenschaftskommunikation, Szientometrie und automatische Erschließung vermittelt werden.
  13. Lepsky, K.: Perspektive - Symbol, Konvention, Wirklichkeit (1986) 0.00
    0.0027336923 = product of:
      0.016402153 = sum of:
        0.016402153 = product of:
          0.049206458 = sum of:
            0.049206458 = weight(_text_:29 in 3646) [ClassicSimilarity], result of:
              0.049206458 = score(doc=3646,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.46638384 = fieldWeight in 3646, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3646)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.1996 15:11:13
  14. Gödert, W.; Hartmann, S.; Hubrich, J.; Lepsky, K.; Schulenborg, K.; Trunk, D.: Semantische Anreicherung der Schlagwortnormdatei : Ergebnisbericht (2004) 0.00
    0.0023960317 = product of:
      0.01437619 = sum of:
        0.01437619 = weight(_text_:des in 1815) [ClassicSimilarity], result of:
          0.01437619 = score(doc=1815,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.17308173 = fieldWeight in 1815, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1815)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Schlagwortnormdatei (SWD) ist mit einem Umfang von ca. 150.000 Sachschlagwörtern das umfangreichste terminologisch kontrollierte deutschsprachige Vokabular, das zur verbalen Inhaltserschließung von Dokumenten genutzt werden und somit prinzipiell auch als Kandidat für den Aufbau semantischer Navigationsstrukturen im Online-Retrieval angesehen werden kann. Die Strukturierung der Schlagwörter in der SWD folgt den Vorgaben zur Ausweisung begrifflicher Strukturen in einem Thesaurus. Durch Veränderungen des der Erstellung der SWD zu Grunde liegenden Regelwerkes RSWK hat sich im Verlauf der Zeit ein Nebeneinander von unterschiedlich dichten Beziehungsnetzen ergeben, ohne dass hierzu bislang Details erhoben und dokumentiert wären. In dieser Studie werden Aussagen über den Aufwand gemacht, der erforderlich wäre, die semantische Relationenstruktur der Schlagwortnormdatei (SWD) zu homogenisieren. Hierzu wird eine quantitative und qualitative Analyse am Beispiel mehrerer Themengebiete vorgenommen. Die Berücksichtigung mehrerer Gebiete soll es gestatten, möglichst repräsentative Aussagen für das gesamte Vokabular abzuleiten. Die Autorinnen und Autoren der Studien sind sich angesichts der zur Verfügung stehenden begrenzten Ressourcen bewusst, dass dieser Anspruch nur mit Einschränkungen eingelöst werden kann. Die für die Analyse der Relationenstruktur benutzten Kriterien orientieren sich an Grundsätzen zur Gestaltung strukturierten Vokabulars sowie insbesondere der Eignung der SWD, zum Aufbau bestandsunabhängiger semantischer Navigationssysteme im Online-Retrieval, für Zwecke des wörterbuchgestützten automatischen Indexierens.
  15. Lepsky, K.: RSWK - und was noch? : Stellungnahme zum Bericht 'Sacherschließung in Online-Katalogen' der Expertengruppe Online-Kataloge (1995) 0.00
    0.0015946537 = product of:
      0.009567922 = sum of:
        0.009567922 = product of:
          0.028703766 = sum of:
            0.028703766 = weight(_text_:29 in 772) [ClassicSimilarity], result of:
              0.028703766 = score(doc=772,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.27205724 = fieldWeight in 772, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=772)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Bibliotheksdienst. 29(1995) H.3, S.500-519