Search (67 results, page 1 of 4)

  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Computerlinguistik und Sprachtechnologie : Eine Einführung (2001) 0.01
    0.0052601947 = product of:
      0.07364272 = sum of:
        0.07364272 = weight(_text_:semantik in 1749) [ClassicSimilarity], result of:
          0.07364272 = score(doc=1749,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.44594622 = fieldWeight in 1749, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
      0.071428575 = coord(1/14)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen und statistischen Verfahren ausführlich und beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Der letzte Teil des Buchs gibt einen Überblick über die sprachtechnologischen Anwendungen in der Praxis und zeigt anhand einer Vielzahl konkreter Fragestellungen - von Spracherkennung über Sprachsynthese, Information Retrieval bis hin zu Dialogsystemen und automatischer Übersetzung - das Zusammenwirken der einzelnen Methoden auf. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand" [Manfred Pinkal]
  2. Krallmann, D.; Ziemann, A.: Grundkurs Kommunikationswissenschaft : Mit einem Hypertext-Vertiefungsprogramm im Intenret (2001) 0.00
    0.004909066 = product of:
      0.06872692 = sum of:
        0.06872692 = product of:
          0.13745384 = sum of:
            0.13745384 = weight(_text_:habermas in 441) [ClassicSimilarity], result of:
              0.13745384 = score(doc=441,freq=2.0), product of:
                0.19538513 = queryWeight, product of:
                  7.9592175 = idf(docFreq=41, maxDocs=44218)
                  0.024548283 = queryNorm
                0.70350206 = fieldWeight in 441, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.9592175 = idf(docFreq=41, maxDocs=44218)
                  0.0625 = fieldNorm(doc=441)
          0.5 = coord(1/2)
      0.071428575 = coord(1/14)
    
    Abstract
    Wie ist Kommunikation möglich? Auf diese Frage sucht die Kommunikationswissenschaft theoretische wie begriffliche Antworten. In grundlegender und integrativer Weise vermittelt dieses Lehrbuch die vielfältigen vorstellungen über Kommunikation aus natur-, sprach- und sozialwissenschaftlicher Perspektive. Anhand der Theorien von Austin, Bühler, Habermas, Luhmann, u.v.a. werden die Themenkreise von zwischenmenschlichem Mitteilungs- und Verständigungshandeln, Sprechakten, sozialen Beziehungen und Interaktionssystemen behandelt
  3. Brühl, B.: Thesauri und Klassifikationen : Naturwissenschaften - Technik - Wirtschaft (2005) 0.00
    0.004396274 = product of:
      0.03077392 = sum of:
        0.027447965 = weight(_text_:bedeutung in 3487) [ClassicSimilarity], result of:
          0.027447965 = score(doc=3487,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.22229363 = fieldWeight in 3487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.03125 = fieldNorm(doc=3487)
        0.0033259534 = product of:
          0.0133038135 = sum of:
            0.0133038135 = weight(_text_:22 in 3487) [ClassicSimilarity], result of:
              0.0133038135 = score(doc=3487,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.15476047 = fieldWeight in 3487, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3487)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Footnote
    Rez. in: Information: Wissenschaft & Praxis 56(2005) H.5/6, S.337 (W. Ratzek): "Bettina Brühl legt mit "Thesauri und Klassifikationen" ein Fleißarbeit vor. Das Buch mit seiner Auswahl von über 150 Klassifikationen und Thesauri aus Naturwissenschaft, Technik, Wirtschaft und Patenwesen macht es zu einem brauchbaren Nachschlagewerk, zumal auch ein umfassender Index nach Sachgebieten, nach Datenbanken und nach Klassifikationen und Thesauri angeboten wird. Nach einer 13-seitigen Einführung (Kapitel 1 und 2) folgt mit dem 3. Kapitel die "Darstellung von Klassifikationen und Thesauri", im wesentlichen aus den Beschreibungen der Hersteller zusammengestellt. Hier werden Dokumentationssprachen der Fachgebiete - Naturwissenschaften (3.1) und deren Spezialisierungen wie zum Beispiel "Biowissenschaften und Biotechnologie", "Chemie" oder "Umwelt und Ökonomie", aber auch "Mathematik und Informatik" (?) auf 189 Seiten vorgestellt, - Technik mit zum Beispiel "Fachordnung Technik", "Subject Categories (INIS/ ETDE) mit 17 Seiten verhältnismäßig knapp abgehandelt, - Wirtschaft mit "Branchen-Codes", "Product-Codes", "Länder-Codes"",Fachklas-sifikationen" und "Thesauri" ausführlich auf 57 Seiten präsentiert, - Patente und Normen mit zum Beispiel "Europäische Patentklassifikation" oder "International Patent Classification" auf 33 Seiten umrissen. Jedes Teilgebiet wird mit einer kurzen Beschreibung eingeleitet. Danach folgen die jeweiligen Beschreibungen mit den Merkmalen: "Anschrift des Erstellers", "Themen-gebiet(e)", "Sprache", "Verfügbarkeit", "An-wendung" und "Ouelle(n)". "Das Buch wendet sich an alle Information Professionals, die Dokumentationssprachen aufbauen und nutzen" heißt es in der Verlagsinformation. Zwar ist es nicht notwendig, die informationswissenschaftlichen Aspekte der Klassifikationen und Thesauri abzuhandeln, aber ein Hinweis auf die Bedeutung der Information und Dokumentation und/oder der Informationswissenschaft wäre schon angebracht, um in der Welt der Informations- und Wissenswirtschaft zu demonstrieren, welchen Beitrag unsere Profession leistet. Andernfalls bleibt das Blickfeld eingeschränkt und der Anschluss an neuere Entwicklungen ausgeblendet. Dieser Anknüpfungspunkt wäre beispielsweise durch einen Exkurs über Topic Map/Semantic Web gegeben. Der Verlag liefert mit der Herausgabe die ses Kompendiums einen nützlichen ersten Baustein zu einem umfassenden Verzeichnis von Thesauri und Klassifikationen."
    Series
    Materialien zur Information und Dokumentation; Bd.22
  4. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.00
    0.0035067964 = product of:
      0.049095146 = sum of:
        0.049095146 = weight(_text_:semantik in 1735) [ClassicSimilarity], result of:
          0.049095146 = score(doc=1735,freq=2.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.29729748 = fieldWeight in 1735, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
      0.071428575 = coord(1/14)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen, der Graphentheorie, den statistischen Verfahren sowie der Texttechnologie beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik und Phonologie, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Die drei letzten Teile des Buchs geben Überblicke über die verwendeten sprachtechnologischen Informationsquellen, die vielfältigen Anwendungen in der Praxis sowie über Evaluationsverfahren für sprachverarbeitende Systeme. Anhand konkreter Fragestellungen - von der Entwicklung von Korrekturprogrammen über das Informationsmanagement bis zur Maschinellen Übersetzung - wird das Zusammenwirken der einzelnen Methoden aufgezeigt. Für die dritte Auflage wurden sämtliche Kapitel überarbeitet und aktualisiert sowie zum Teil zu eigenständigen, neuen Kapiteln zusammengeführt. Insbesondere trägt die dritte Auflage der rasanten Entwicklung in der Computerlinguistik und Sprachtechnologie durch eine stärkere Fokussierung auf statistische Grundlagen und Methoden Rechnung. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand." [Manfred Pinkal]
  5. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.00
    0.003465829 = product of:
      0.048521604 = sum of:
        0.048521604 = weight(_text_:bedeutung in 4524) [ClassicSimilarity], result of:
          0.048521604 = score(doc=4524,freq=4.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.39296332 = fieldWeight in 4524, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4524)
      0.071428575 = coord(1/14)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
  6. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2000) 0.00
    0.0034309956 = product of:
      0.048033938 = sum of:
        0.048033938 = weight(_text_:bedeutung in 1082) [ClassicSimilarity], result of:
          0.048033938 = score(doc=1082,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.38901386 = fieldWeight in 1082, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1082)
      0.071428575 = coord(1/14)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält neben zahlreichen Obungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit den dazugehörigen Antworten. Das Buch ist von Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden dritten Auflage wurden Korrekturen und Aktualisierungen vorgenommen
  7. Stein, M.: Workshop XML (2001) 0.00
    0.0034309956 = product of:
      0.048033938 = sum of:
        0.048033938 = weight(_text_:bedeutung in 1463) [ClassicSimilarity], result of:
          0.048033938 = score(doc=1463,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.38901386 = fieldWeight in 1463, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1463)
      0.071428575 = coord(1/14)
    
    Abstract
    XML wird mit jedem Tag populärer. Als universelles Datenformat gewinnt es immer mehr an Bedeutung nicht nur für die Datenspeicherung, sondern auch bei der Übertragung von Informationen im Internet. Die Vielfalt der Möglichkeiten macht es jedoch schwierig, jeden Aspekt von XML zu überblicken. Aus diesem Grund wurde in diesem Buch Wert auf praxisnahes Know-How gelegt. Der Autor besitzt nicht nur umfangreiche Kenntnisse über XML, er ist auch ein erfahrener Webentwickler und kennt die Tücken des Programmierer-Alltags. Er hat ein Buch zusammengestellt, dass Ihnen mit praktischen Übungen und Tipps zu eleganten und sinnvollen Lösungen im Umgang mit XML verhilft. Vertiefen Sie Ihre XML-Kenntnisse. Lernen Sie anhand praktischer Übungen mehr über XML-Schema, Namespaces, XPath, XLink und XSLT.
  8. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.00
    0.002695211 = product of:
      0.018866476 = sum of:
        0.017154979 = weight(_text_:bedeutung in 38) [ClassicSimilarity], result of:
          0.017154979 = score(doc=38,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.13893352 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
        0.0017114975 = product of:
          0.00684599 = sum of:
            0.00684599 = weight(_text_:j in 38) [ClassicSimilarity], result of:
              0.00684599 = score(doc=38,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.08776677 = fieldWeight in 38, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=38)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Footnote
    Zum Inhalt Auf einen kurzen einleitenden Abschnitt folgt eine Einführung in die grundlegende Methodik des automatischen Klassifizierens. Oberhauser erklärt hier Begriffe wie Einfach- und Mehrfachklassifizierung, Klassen- und Dokumentzentrierung, und geht danach auf die hauptsächlichen Anwendungen der automatischen Klassifikation von Textdokumenten, maschinelle Lernverfahren und Techniken der Dimensionsreduktion bei der Indexierung ein. Zwei weitere Unterkapitel sind der Erstellung von Klassifikatoren und den Methoden für deren Auswertung gewidmet. Das Kapitel wird abgerundet von einer kurzen Auflistung einiger Softwareprodukte für automatisches Klassifizieren, die sowohl kommerzielle Software, als auch Projekte aus dem Open-Source-Bereich umfasst. Der Hauptteil des Buches ist den großen Projekten zur automatischen Erschließung von Webdokumenten gewidmet, die von OCLC (Scorpion) sowie an den Universitäten Lund (Nordic WAIS/WWW, DESIRE II), Wolverhampton (WWLib-TOS, WWLib-TNG, Old ACE, ACE) und Oldenburg (GERHARD, GERHARD II) durchgeführt worden sind. Der Autor beschreibt hier sehr detailliert - wobei der Detailliertheitsgrad unterschiedlich ist, je nachdem, was aus der Projektdokumentation geschlossen werden kann - die jeweilige Zielsetzung des Projektes, die verwendete Klassifikation, die methodische Vorgehensweise sowie die Evaluierungsmethoden und -ergebnisse. Sofern Querverweise zu anderen Projekten bestehen, werden auch diese besprochen. Der Verfasser geht hier sehr genau auf wichtige Aspekte wie Vokabularbildung, Textaufbereitung und Gewichtung ein, so dass der Leser eine gute Vorstellung von den Ansätzen und der möglichen Weiterentwicklung des Projektes bekommt. In einem weiteren Kapitel wird auf einige kleinere Projekte eingegangen, die dem für Bibliotheken besonders interessanten Thema des automatischen Klassifizierens von Büchern sowie den Bereichen Patentliteratur, Mediendokumentation und dem Einsatz bei Informationsdiensten gewidmet sind. Die Darstellung wird ergänzt von einem Literaturverzeichnis mit über 250 Titeln zu den konkreten Projekten sowie einem Abkürzungs- und einem Abbildungsverzeichnis. In der abschließenden Diskussion der beschriebenen Projekte wird einerseits auf die Bedeutung der einzelnen Projekte für den methodischen Fortschritt eingegangen, andererseits aber auch einiges an Kritik geäußert, v. a. bezüglich der mangelnden Auswertung der Projektergebnisse und des Fehlens an brauchbarer Dokumentation. So waren z. B. die Projektseiten des Projekts GERHARD (www.gerhard.de/) auf den Stand von 1998 eingefroren, zurzeit [11.07.06] sind sie überhaupt nicht mehr erreichbar. Mit einigem Erstaunen stellt Oberhauser auch fest, dass - abgesehen von der fast 15 Jahre alten Untersuchung von Larsen - »keine signifikanten Studien oder Anwendungen aus dem Bibliotheksbereich vorliegen« (S. 139). Wie der Autor aber selbst ergänzend ausführt, dürfte dies daran liegen, dass sich bibliografische Metadaten wegen des geringen Textumfangs sehr schlecht für automatische Klassifikation eignen, und dass - wie frühere Ergebnisse gezeigt haben - das übliche TF/IDF-Verfahren nicht für Katalogisate geeignet ist (ibd.).
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  9. Langridge, D.W.: Inhaltsanalyse: Grundlagen und Methoden (1994) 0.00
    0.0024507113 = product of:
      0.034309957 = sum of:
        0.034309957 = weight(_text_:bedeutung in 3923) [ClassicSimilarity], result of:
          0.034309957 = score(doc=3923,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.27786705 = fieldWeight in 3923, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3923)
      0.071428575 = coord(1/14)
    
    Abstract
    Nahezu unbeachtet in der gesamten bibliothekswissenschaftlichen Literatur blieb bislang ein Arbeitsschritt der Inhaltserschließung, obgleich er ihren Ausgangspunkt bildet und damit von grundlegender Bedeutung ist: die Analyse des Inhalts von Dokumenten. Klare Aussagen über den Inhalt und die Beschaffenheit eines Dokuments auf der Basis fundierter Kriterien treffen zu können, ist das Anliegen von Langridges, nunmehr erstmalig in deutscher Übersetzung vorliegendem Werk. Gestützt auf ein Fundament philosophisch abgeleiteter Wissensformen, zeigt Langridge anhand einer Vielzahl konkreter Beispiele Wege - aber auch Irrwege- auf, sich dem Inhalt von Dokumenten zu nähern und zu Resultaten zu gelangen, die dank objektiver Kriterien überprüfbar werden. Er wendet sich damit sowohl an Studenten dieses Fachgebiets, indem er die grundlegenden Strukturen von Wissen aufzeigt, als auch an erfahrene Praktiker, die ihre Arbeit effektiver gestalten und ihre Entscheidungen auf eine Basis stellen möchten, die persönliche Einschätzungen objektiviert.
  10. Broughton, V.: Essential thesaurus construction (2006) 0.00
    9.802845E-4 = product of:
      0.0137239825 = sum of:
        0.0137239825 = weight(_text_:bedeutung in 2924) [ClassicSimilarity], result of:
          0.0137239825 = score(doc=2924,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.111146815 = fieldWeight in 2924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
      0.071428575 = coord(1/14)
    
    Footnote
    In den stärker ins Detail gehenden Kapiteln weist Broughton zunächst auf die Bedeutung des systematischen Teils eines Thesaurus neben dem alphabetischen Teil hin und erläutert dann die Elemente des letzteren, wobei neben den gängigen Thesaurusrelationen auch die Option der Ausstattung der Einträge mit Notationen eines Klassifikationssystems erwähnt wird. Die Thesaurusrelationen selbst werden später noch in einem weiteren Kapitel ausführlicher diskutiert, wobei etwa auch die polyhierarchische Beziehung thematisiert wird. Zwei Kapitel zur Vokabularkontrolle führen in Aspekte wie Behandlung von Synonymen, Vermeidung von Mehrdeutigkeit, Wahl der bevorzugten Terme sowie die Formen von Thesauruseinträgen ein (grammatische Form, Schreibweise, Zeichenvorrat, Singular/Plural, Komposita bzw. deren Zerlegung usw.). Insgesamt acht Kapitel - in der Abfolge mit den bisher erwähnten Abschnitten didaktisch geschickt vermischt - stehen unter dem Motto "Building a thesaurus". Kurz zusammengefasst, geht es dabei um folgende Tätigkeiten und Prozesse: - Sammlung des Vokabulars unter Nutzung entsprechender Quellen; - Termextraktion aus den Titeln von Dokumenten und Probleme hiebei; - Analyse des Vokabulars (Facettenmethode); - Einbau einer internen Struktur (Facetten und Sub-Facetten, Anordnung der Terme); - Erstellung einer hierarchischen Struktur und deren Repräsentation; - Zusammengesetzte Themen bzw. Begriffe (Facettenanordnung: filing order vs. citation order); - Konvertierung der taxonomischen Anordnung in ein alphabetisches Format (Auswahl der Vorzugsbegriffe, Identifizieren hierarchischer Beziehungen, verwandter Begriffe usw.); - Erzeugen der endgültigen Thesaurus-Einträge.
  11. Chan, L.M.; Mitchell, J.S.: Dewey Decimal Classification : principles and applications (2003) 0.00
    8.314884E-4 = product of:
      0.011640837 = sum of:
        0.011640837 = product of:
          0.04656335 = sum of:
            0.04656335 = weight(_text_:22 in 3247) [ClassicSimilarity], result of:
              0.04656335 = score(doc=3247,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.5416616 = fieldWeight in 3247, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3247)
          0.25 = coord(1/4)
      0.071428575 = coord(1/14)
    
    Object
    DDC-22
  12. Salton, G.; McGill, M. J.: Introduction to modern information retrieval (1983) 0.00
    7.823989E-4 = product of:
      0.010953585 = sum of:
        0.010953585 = product of:
          0.04381434 = sum of:
            0.04381434 = weight(_text_:j in 2328) [ClassicSimilarity], result of:
              0.04381434 = score(doc=2328,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.5617073 = fieldWeight in 2328, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.125 = fieldNorm(doc=2328)
          0.25 = coord(1/4)
      0.071428575 = coord(1/14)
    
  13. Mills, J.: ¬A modern outline of library classification (1960) 0.00
    7.823989E-4 = product of:
      0.010953585 = sum of:
        0.010953585 = product of:
          0.04381434 = sum of:
            0.04381434 = weight(_text_:j in 3410) [ClassicSimilarity], result of:
              0.04381434 = score(doc=3410,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.5617073 = fieldWeight in 3410, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.125 = fieldNorm(doc=3410)
          0.25 = coord(1/4)
      0.071428575 = coord(1/14)
    
  14. Hennings, R.-D.; Knorz, G.; Manecke, H.-J.; Reinicke, W.; Schwandt, J.: Wissensrepräsentation und Information Retrieval (1994) 0.00
    7.823989E-4 = product of:
      0.010953585 = sum of:
        0.010953585 = product of:
          0.04381434 = sum of:
            0.04381434 = weight(_text_:j in 4255) [ClassicSimilarity], result of:
              0.04381434 = score(doc=4255,freq=8.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.5617073 = fieldWeight in 4255, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4255)
          0.25 = coord(1/4)
      0.071428575 = coord(1/14)
    
    Content
    Enthält die Kapitel: Formale Erfassung (W. REINICKE); Inhaltliche Erschließung (W. REINICKE); Klassifikationssysteme und Klassieren (H.-J. MANECKE); Automatische Indexierung (G. KNORZ); Inhaltliche Erschließung in der Fakteninformation und -dokumentation (W. REINICKE); Wissensrepräsentation in wissensbasierten (Experten-)Systemen (R.-D. HENNINGS); Information-Retrieval (J. SCHWANDT)
  15. Kaiser, U.: Handbuch Internet und Online Dienste : der kompetente Reiseführer für das digitale Netz (1996) 0.00
    7.127043E-4 = product of:
      0.00997786 = sum of:
        0.00997786 = product of:
          0.03991144 = sum of:
            0.03991144 = weight(_text_:22 in 4589) [ClassicSimilarity], result of:
              0.03991144 = score(doc=4589,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.46428138 = fieldWeight in 4589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4589)
          0.25 = coord(1/4)
      0.071428575 = coord(1/14)
    
    Series
    Heyne Business; 22/1019
  16. Kumar, K.: Theory of classification (1989) 0.00
    7.127043E-4 = product of:
      0.00997786 = sum of:
        0.00997786 = product of:
          0.03991144 = sum of:
            0.03991144 = weight(_text_:22 in 6774) [ClassicSimilarity], result of:
              0.03991144 = score(doc=6774,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.46428138 = fieldWeight in 6774, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6774)
          0.25 = coord(1/4)
      0.071428575 = coord(1/14)
    
    Date
    25. 3.2019 18:15:22
  17. Aitchison, J.: Indexing languages, classification schemes and thesauri (1982) 0.00
    6.845991E-4 = product of:
      0.009584387 = sum of:
        0.009584387 = product of:
          0.038337547 = sum of:
            0.038337547 = weight(_text_:j in 706) [ClassicSimilarity], result of:
              0.038337547 = score(doc=706,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.4914939 = fieldWeight in 706, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.109375 = fieldNorm(doc=706)
          0.25 = coord(1/4)
      0.071428575 = coord(1/14)
    
  18. Bakewell, K.G.B.; Hunter, J.: File creation: cataloguing and indexing (1982) 0.00
    6.845991E-4 = product of:
      0.009584387 = sum of:
        0.009584387 = product of:
          0.038337547 = sum of:
            0.038337547 = weight(_text_:j in 707) [ClassicSimilarity], result of:
              0.038337547 = score(doc=707,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.4914939 = fieldWeight in 707, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.109375 = fieldNorm(doc=707)
          0.25 = coord(1/4)
      0.071428575 = coord(1/14)
    
  19. Palmer, B.I.; Wells, J.: ¬The fundamentals of library classification (1961) 0.00
    6.845991E-4 = product of:
      0.009584387 = sum of:
        0.009584387 = product of:
          0.038337547 = sum of:
            0.038337547 = weight(_text_:j in 3412) [ClassicSimilarity], result of:
              0.038337547 = score(doc=3412,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.4914939 = fieldWeight in 3412, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3412)
          0.25 = coord(1/4)
      0.071428575 = coord(1/14)
    
  20. Jonker, F.: Indexing theory, indexing methods, and search devices (1964) 0.00
    6.845991E-4 = product of:
      0.009584387 = sum of:
        0.009584387 = product of:
          0.038337547 = sum of:
            0.038337547 = weight(_text_:j in 6246) [ClassicSimilarity], result of:
              0.038337547 = score(doc=6246,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.4914939 = fieldWeight in 6246, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6246)
          0.25 = coord(1/4)
      0.071428575 = coord(1/14)
    
    Footnote
    Rez. in: College and research libraries 25(1964) no.6, S.519 (J. Becker)

Languages

  • e 42
  • d 24
  • f 1
  • More… Less…

Types

  • m 58
  • s 8
  • a 3
  • el 2
  • More… Less…

Subjects

Classifications