Search (40 results, page 1 of 2)

  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Haller, K.; Popst, H.: Katalogisierung nach den RAK-WB : eine Einführung in die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (2003) 0.02
    0.018048555 = product of:
      0.07219422 = sum of:
        0.060180478 = weight(_text_:darstellung in 1811) [ClassicSimilarity], result of:
          0.060180478 = score(doc=1811,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 1811, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1811)
        0.012013737 = product of:
          0.024027474 = sum of:
            0.024027474 = weight(_text_:22 in 1811) [ClassicSimilarity], result of:
              0.024027474 = score(doc=1811,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.19345059 = fieldWeight in 1811, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1811)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Diese Einführung vermittelt alle wichtigen Kenntnisse über die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB), das maßgebliche deutsche Regelwerk für die alphabetische Katalogisierung. In die neue, sechste Ausgabe ist der aktuelle Regelwerksstand eingearbeitet. Das betrifft vor allem die Ansetzung von Personennamen. Nach dem einleitenden Kapitel über die Funktion, die äußeren Formen und die grundlegenden Begriffe des alphabetischen Katalogs werden die verschiedenen Eintragungsarten und ihre formale Gestaltung beschrieben. Das Hauptgewicht der Darstellung liegt bei den Bestimmungen über Haupt- und Nebeneintragungen unter Personennamen, Sachtiteln und Körperschaftsnomen sowie deren Ansetzung. Neben den Grundregeln für die Kotologisierung ein- und mehrbändiger Einzelwerke, Sammlungen und Sammelwerke werden auch die Sonderregeln für Kongressberichte, Bildbände, Bilderbücher, Kunstbände, Ausstellungskataloge, Hochschulschriften, Gesetze, Kommentare, Loseblattausgaben, Schulbücher, Reports und Normen behandelt. Die Bestimmungen für Vorlagen mit Einheitssachtiteln, Neben- und Paralleltiteln werden ebenso ausführlich dargestellt wie die schwierigen Fälle fortlaufender Sammelwerke mit Unterreihen. Alle Regeln werden durch Beispiele erläutert. Die Vorlagen werden meist mit ihrer Haupttitelseite wiedergegeben und den vollständigen Lösungen sowie erläuternden Texten gegenübergestellt. Die einschlägigen Paragraphen des Regelwerks werden im Text jeweils in Klammern angegeben. Auf die Belange der moschinenlesbaren Katalogisierung in Online-Datenbanken wird eingegangen. Das Kategorisieren der Katalogdaten wird in einem eigenen Kapitel dargestellt. Beispiele von Aufnahmen gemäß dem Maschinellen Austauschformat für Bibliotheken (MAB2) sollen helfen, die Grundbegriffe der gefelderten Erfassung zu verstehen. Das Lehrbuch Katalogisierung nach den RAK-WB ist eine unverzichtbare Grundlage für Studierende der bibliothekarischen Lehrinstitute und angehende Bibliothekare in der praktischen Ausbildung sowie für das Selbststudium und für die Weiterbildung bereits im Beruf stehender Bibliothekare.
    Date
    17. 6.2015 15:22:06
  2. Roloff, H.: Lehrbuch der Sachkatalogisierung (1976) 0.02
    0.01702161 = product of:
      0.13617288 = sum of:
        0.13617288 = weight(_text_:darstellung in 7392) [ClassicSimilarity], result of:
          0.13617288 = score(doc=7392,freq=4.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.6927536 = fieldWeight in 7392, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0625 = fieldNorm(doc=7392)
      0.125 = coord(1/8)
    
    Content
    Der 'Klassiker' für die Darstellung der bibliothekarischen Sacherschließung bis in die 60er Jahre. Der Schwerpunkt liegt nicht so sehr auf der methodischen Seite, sondern der Tenor der Darstellung ist eher beschreibend, historisch; als Zusammenfassung nicht ersetzt
  3. Brühl, B.: Thesauri und Klassifikationen : Naturwissenschaften - Technik - Wirtschaft (2005) 0.01
    0.014438842 = product of:
      0.05775537 = sum of:
        0.04814438 = weight(_text_:darstellung in 3487) [ClassicSimilarity], result of:
          0.04814438 = score(doc=3487,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.24492538 = fieldWeight in 3487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=3487)
        0.009610989 = product of:
          0.019221978 = sum of:
            0.019221978 = weight(_text_:22 in 3487) [ClassicSimilarity], result of:
              0.019221978 = score(doc=3487,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.15476047 = fieldWeight in 3487, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3487)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Footnote
    Rez. in: Information: Wissenschaft & Praxis 56(2005) H.5/6, S.337 (W. Ratzek): "Bettina Brühl legt mit "Thesauri und Klassifikationen" ein Fleißarbeit vor. Das Buch mit seiner Auswahl von über 150 Klassifikationen und Thesauri aus Naturwissenschaft, Technik, Wirtschaft und Patenwesen macht es zu einem brauchbaren Nachschlagewerk, zumal auch ein umfassender Index nach Sachgebieten, nach Datenbanken und nach Klassifikationen und Thesauri angeboten wird. Nach einer 13-seitigen Einführung (Kapitel 1 und 2) folgt mit dem 3. Kapitel die "Darstellung von Klassifikationen und Thesauri", im wesentlichen aus den Beschreibungen der Hersteller zusammengestellt. Hier werden Dokumentationssprachen der Fachgebiete - Naturwissenschaften (3.1) und deren Spezialisierungen wie zum Beispiel "Biowissenschaften und Biotechnologie", "Chemie" oder "Umwelt und Ökonomie", aber auch "Mathematik und Informatik" (?) auf 189 Seiten vorgestellt, - Technik mit zum Beispiel "Fachordnung Technik", "Subject Categories (INIS/ ETDE) mit 17 Seiten verhältnismäßig knapp abgehandelt, - Wirtschaft mit "Branchen-Codes", "Product-Codes", "Länder-Codes"",Fachklas-sifikationen" und "Thesauri" ausführlich auf 57 Seiten präsentiert, - Patente und Normen mit zum Beispiel "Europäische Patentklassifikation" oder "International Patent Classification" auf 33 Seiten umrissen. Jedes Teilgebiet wird mit einer kurzen Beschreibung eingeleitet. Danach folgen die jeweiligen Beschreibungen mit den Merkmalen: "Anschrift des Erstellers", "Themen-gebiet(e)", "Sprache", "Verfügbarkeit", "An-wendung" und "Ouelle(n)". "Das Buch wendet sich an alle Information Professionals, die Dokumentationssprachen aufbauen und nutzen" heißt es in der Verlagsinformation. Zwar ist es nicht notwendig, die informationswissenschaftlichen Aspekte der Klassifikationen und Thesauri abzuhandeln, aber ein Hinweis auf die Bedeutung der Information und Dokumentation und/oder der Informationswissenschaft wäre schon angebracht, um in der Welt der Informations- und Wissenswirtschaft zu demonstrieren, welchen Beitrag unsere Profession leistet. Andernfalls bleibt das Blickfeld eingeschränkt und der Anschluss an neuere Entwicklungen ausgeblendet. Dieser Anknüpfungspunkt wäre beispielsweise durch einen Exkurs über Topic Map/Semantic Web gegeben. Der Verlag liefert mit der Herausgabe die ses Kompendiums einen nützlichen ersten Baustein zu einem umfassenden Verzeichnis von Thesauri und Klassifikationen."
    Series
    Materialien zur Information und Dokumentation; Bd.22
  4. Vonhoegen, H.: Einstieg in XML (2002) 0.01
    0.012633988 = product of:
      0.05053595 = sum of:
        0.042126335 = weight(_text_:darstellung in 4002) [ClassicSimilarity], result of:
          0.042126335 = score(doc=4002,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.2143097 = fieldWeight in 4002, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4002)
        0.008409616 = product of:
          0.016819231 = sum of:
            0.016819231 = weight(_text_:22 in 4002) [ClassicSimilarity], result of:
              0.016819231 = score(doc=4002,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.1354154 = fieldWeight in 4002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4002)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  5. Hase, H.-L.: Als Anhalter durch Internet : mit dem PC auf Inforeise (1995) 0.01
    0.012036095 = product of:
      0.09628876 = sum of:
        0.09628876 = weight(_text_:darstellung in 1959) [ClassicSimilarity], result of:
          0.09628876 = score(doc=1959,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.48985076 = fieldWeight in 1959, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0625 = fieldNorm(doc=1959)
      0.125 = coord(1/8)
    
    Abstract
    Das Internet ist heute für viele PC-Benutzer eine interessante Möglichkeit zur Informationsgewinnung. Hierzu haben sowohl die Öffnung für private und kommerzielle Anwender als auch die Entwicklung multimedialer Informationssysteme beigetragen. Zur Nutzung der meisten Dienste kann ferner kostenlose Software für DOS und Windows eingesetzt werden. Hans-Lothar Hase beschreibt zunächst einführend, wie der Enduser auf die Datenautobahn gelangt. Schwerpunkt der Darstellung ist aber die Beschreibung von Programmen zur Nutzung der Internet-Dienste. Hierzu gehören Dateiübertragung, Rechnerdialog, Diskussionsforen, vor allem aber die Recherche mit Gopher und WWW
  6. Wersig, G.: Thesaurus Leitfaden : eine Einführung in das Thesaurus-Prinzip in Theorie und Praxis (1985) 0.01
    0.012036095 = product of:
      0.09628876 = sum of:
        0.09628876 = weight(_text_:darstellung in 2068) [ClassicSimilarity], result of:
          0.09628876 = score(doc=2068,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.48985076 = fieldWeight in 2068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0625 = fieldNorm(doc=2068)
      0.125 = coord(1/8)
    
    Abstract
    Umfassendste deutsche Darstellung zum Thema 'Thesaurus' mit detaillierten Ausführungen zu den Grundsätzen der Erstellung eines Thesaurus und seiner Anwendung für die gleichordnende Indexierung. Enthält viele Beispiele.
  7. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.01
    0.010829132 = product of:
      0.04331653 = sum of:
        0.036108285 = weight(_text_:darstellung in 729) [ClassicSimilarity], result of:
          0.036108285 = score(doc=729,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.18369403 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.0072082416 = product of:
          0.014416483 = sum of:
            0.014416483 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
              0.014416483 = score(doc=729,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.116070345 = fieldWeight in 729, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=729)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Date
    22. 6.2005 15:12:11
  8. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.01
    0.010638506 = product of:
      0.08510805 = sum of:
        0.08510805 = weight(_text_:darstellung in 4524) [ClassicSimilarity], result of:
          0.08510805 = score(doc=4524,freq=4.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.432971 = fieldWeight in 4524, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4524)
      0.125 = coord(1/8)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
  9. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2000) 0.01
    0.010531584 = product of:
      0.08425267 = sum of:
        0.08425267 = weight(_text_:darstellung in 1082) [ClassicSimilarity], result of:
          0.08425267 = score(doc=1082,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.4286194 = fieldWeight in 1082, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1082)
      0.125 = coord(1/8)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält neben zahlreichen Obungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit den dazugehörigen Antworten. Das Buch ist von Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden dritten Auflage wurden Korrekturen und Aktualisierungen vorgenommen
  10. Haller, K.; Popst, H.: Katalogisierung nach den RAK-WB : eine Einführung in die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (1996) 0.01
    0.009027071 = product of:
      0.07221657 = sum of:
        0.07221657 = weight(_text_:darstellung in 1813) [ClassicSimilarity], result of:
          0.07221657 = score(doc=1813,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 1813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=1813)
      0.125 = coord(1/8)
    
    Abstract
    Diese Einführung vermittelt mittlerweile in 5. überarbeiteter Auflage alle wichtigen Kenntnisse über die RAK-WB, das maßgebliche deutsche Regelwerk für die alphabetische Katalogisierung. Das Hauptgewicht der Darstellung liegt bei den Bestimmungen über Haupt- und Nebeneintragungen unter Personennamen, Sachtiteln und Körperschaftsnamen sowie deren Ansetzung. Neben den Grundregeln für die Katalogisierung ein- und mehrbändiger Einzelwerke, Sammlungen und Sammelwerke werden auch die Sonderregeln für Kongreßberichte, Bildbände, Bilderbücher, Kunstbände, Ausstellungskataloge, Hochschulschriften, Gesetze, Kommentare, Loseblattausgaben, Schulbücher, Reports und Normen behandelt. Die Einführung ist unverzichtbare Grundlage für die Studierenden der bibliothekarischen Lehrinstitute und die angehenden Bibliothekare in der praktischen Ausbildung. Da alle Regeln durch Beispiele erläutert werden und alle Regeländerungen der letzten Zeit berücksichtigt sind, ist dieses Standardwerk auch für das Selbststudium und für die Weiterbildung bereits im Beruf stehender Bibliothekare besonders geeignet.
  11. Computerlinguistik und Sprachtechnologie : Eine Einführung (2001) 0.01
    0.009027071 = product of:
      0.07221657 = sum of:
        0.07221657 = weight(_text_:darstellung in 1749) [ClassicSimilarity], result of:
          0.07221657 = score(doc=1749,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.36738807 = fieldWeight in 1749, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.046875 = fieldNorm(doc=1749)
      0.125 = coord(1/8)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen und statistischen Verfahren ausführlich und beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Der letzte Teil des Buchs gibt einen Überblick über die sprachtechnologischen Anwendungen in der Praxis und zeigt anhand einer Vielzahl konkreter Fragestellungen - von Spracherkennung über Sprachsynthese, Information Retrieval bis hin zu Dialogsystemen und automatischer Übersetzung - das Zusammenwirken der einzelnen Methoden auf. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand" [Manfred Pinkal]
  12. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2005) 0.01
    0.008510805 = product of:
      0.06808644 = sum of:
        0.06808644 = weight(_text_:darstellung in 679) [ClassicSimilarity], result of:
          0.06808644 = score(doc=679,freq=4.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.3463768 = fieldWeight in 679, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=679)
      0.125 = coord(1/8)
    
    Abstract
    Dokumentation und Information Retrieval, also das gezielte Wiederauffinden von Informationen zu thematisch-inhaltlichen Fragestellungen sind wichtiger als je zuvor. Die hier vorliegende theoretisch fundierte und praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält viele instruktive Beispiele und praktische Übungen sowie einen umfassenden Beispielthesaurus und behandelt ausführlich Ordnungs- und Retrievalsysteme. Jedes Thema wird mit zahlreichen Prüfungsfragen abgeschlossen. Die detaillierten Antworten zu den insgesamt 195 Fragen umfassen alleine etwa 60 Seiten, Dieses Lehrbuch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. Die fünfte Auflage ist aktualisiert und erweitert worden.
  13. Eversberg, B.: Was sind und was sollen bibliothekarische Datenformate (1999) 0.01
    0.0075225597 = product of:
      0.060180478 = sum of:
        0.060180478 = weight(_text_:darstellung in 154) [ClassicSimilarity], result of:
          0.060180478 = score(doc=154,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 154, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=154)
      0.125 = coord(1/8)
    
    Abstract
    Vor fünf Jahren erschien die erste zusammenfassende Darstellung über bibliothekarische Datenformate von Bernhard Eversberg. Sie war bereits nach kurzer Zeit vergriffen. Die Überarbeitung dieses Büchleins hat zwar länger gedauert als geplant, führte jedoch zu einem respektablen Handbuch, das nun auch die aktuellen Pica-Formate voll einbezieht. Mit dem Abschnitt "Konkordanz der Formate" wurde ein wichtiges und in seiner Art einmaliges Nachschlagewerk geschaffen, das die Behandlung von mehr als 370 Begriffen in den einzelnen Formaten darstellt.
  14. Gödert, W.; Lepsky, K.; Nagelschmidt, M.: Informationserschließung und Automatisches Indexieren : ein Lehr- und Arbeitsbuch (2011) 0.01
    0.0075225597 = product of:
      0.060180478 = sum of:
        0.060180478 = weight(_text_:darstellung in 2550) [ClassicSimilarity], result of:
          0.060180478 = score(doc=2550,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 2550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2550)
      0.125 = coord(1/8)
    
    Abstract
    Das Buch vermittelt Kenntnisse über die Modellierung dokumentbezogener Metadaten durch praktische Aufgabenstellungen, begleitende theoretische Erläuterungen sowie ergänzende Übungen. Als Beispiele dienen Bilddokumente und bibliografische Daten. Es wird vermittelt, wie entsprechende Datenbanken aufgebaut und mit geeigneten Suchumgebungen ausgestattet werden. Es wird dargestellt und praktisch geübt, wie Kenntnisse über die Struktur der Daten zum Import von Fremddaten genutzt werden können. Zielvorstellung ist der Aufbau von Datenbanken zur formalen und inhaltlichen Erschließung und die Gestaltung von Retrievalumgebungen, für bibliografische Daten auch die Erstellung von Bibliografien. Als Methoden zur inhaltlichen Erschließung werden besonders die semantische Strukturierung von Themenfeldern am Beispiel des aspektorientierten Thesaurus-Konzepts und das Automatische Indexieren bibliografischer Daten behandelt. Abgerundet wird die Darstellung durch die Diskussion von Bezügen zum Aufbau relationaler Datenbanken für bibliografische Daten sowie Hintergründe der Zeichencodierung und Ordnungsfragen.
  15. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.01
    0.006514728 = product of:
      0.052117825 = sum of:
        0.052117825 = weight(_text_:darstellung in 38) [ClassicSimilarity], result of:
          0.052117825 = score(doc=38,freq=6.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.26513952 = fieldWeight in 38, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.125 = coord(1/8)
    
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären.
    Zum Inhalt Auf einen kurzen einleitenden Abschnitt folgt eine Einführung in die grundlegende Methodik des automatischen Klassifizierens. Oberhauser erklärt hier Begriffe wie Einfach- und Mehrfachklassifizierung, Klassen- und Dokumentzentrierung, und geht danach auf die hauptsächlichen Anwendungen der automatischen Klassifikation von Textdokumenten, maschinelle Lernverfahren und Techniken der Dimensionsreduktion bei der Indexierung ein. Zwei weitere Unterkapitel sind der Erstellung von Klassifikatoren und den Methoden für deren Auswertung gewidmet. Das Kapitel wird abgerundet von einer kurzen Auflistung einiger Softwareprodukte für automatisches Klassifizieren, die sowohl kommerzielle Software, als auch Projekte aus dem Open-Source-Bereich umfasst. Der Hauptteil des Buches ist den großen Projekten zur automatischen Erschließung von Webdokumenten gewidmet, die von OCLC (Scorpion) sowie an den Universitäten Lund (Nordic WAIS/WWW, DESIRE II), Wolverhampton (WWLib-TOS, WWLib-TNG, Old ACE, ACE) und Oldenburg (GERHARD, GERHARD II) durchgeführt worden sind. Der Autor beschreibt hier sehr detailliert - wobei der Detailliertheitsgrad unterschiedlich ist, je nachdem, was aus der Projektdokumentation geschlossen werden kann - die jeweilige Zielsetzung des Projektes, die verwendete Klassifikation, die methodische Vorgehensweise sowie die Evaluierungsmethoden und -ergebnisse. Sofern Querverweise zu anderen Projekten bestehen, werden auch diese besprochen. Der Verfasser geht hier sehr genau auf wichtige Aspekte wie Vokabularbildung, Textaufbereitung und Gewichtung ein, so dass der Leser eine gute Vorstellung von den Ansätzen und der möglichen Weiterentwicklung des Projektes bekommt. In einem weiteren Kapitel wird auf einige kleinere Projekte eingegangen, die dem für Bibliotheken besonders interessanten Thema des automatischen Klassifizierens von Büchern sowie den Bereichen Patentliteratur, Mediendokumentation und dem Einsatz bei Informationsdiensten gewidmet sind. Die Darstellung wird ergänzt von einem Literaturverzeichnis mit über 250 Titeln zu den konkreten Projekten sowie einem Abkürzungs- und einem Abbildungsverzeichnis. In der abschließenden Diskussion der beschriebenen Projekte wird einerseits auf die Bedeutung der einzelnen Projekte für den methodischen Fortschritt eingegangen, andererseits aber auch einiges an Kritik geäußert, v. a. bezüglich der mangelnden Auswertung der Projektergebnisse und des Fehlens an brauchbarer Dokumentation. So waren z. B. die Projektseiten des Projekts GERHARD (www.gerhard.de/) auf den Stand von 1998 eingefroren, zurzeit [11.07.06] sind sie überhaupt nicht mehr erreichbar. Mit einigem Erstaunen stellt Oberhauser auch fest, dass - abgesehen von der fast 15 Jahre alten Untersuchung von Larsen - »keine signifikanten Studien oder Anwendungen aus dem Bibliotheksbereich vorliegen« (S. 139). Wie der Autor aber selbst ergänzend ausführt, dürfte dies daran liegen, dass sich bibliografische Metadaten wegen des geringen Textumfangs sehr schlecht für automatische Klassifikation eignen, und dass - wie frühere Ergebnisse gezeigt haben - das übliche TF/IDF-Verfahren nicht für Katalogisate geeignet ist (ibd.).
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  16. Henzler, R.G.: Information und Dokumentation : Sammeln, Speichern und Wiedergewinnen von Fachinformation in Datenbanken (1992) 0.01
    0.0060180477 = product of:
      0.04814438 = sum of:
        0.04814438 = weight(_text_:darstellung in 4839) [ClassicSimilarity], result of:
          0.04814438 = score(doc=4839,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.24492538 = fieldWeight in 4839, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=4839)
      0.125 = coord(1/8)
    
    Abstract
    Die von Dokumentaren geleistete Vermittlung von Informationen zwischen externen Systemen und internem Bedarf, aber auch umgekehrt, zwischen intern verfügbarem Wissen und von außen herangetragenen Wünschen, wird durch die zunehmende Verflechtung vieler Firmen und Institutionen miteinander immer wichtiger. Dieses Lehrbuch behandelt traditionelle und moderne Formen der Informationsaufbereitung für Datenbanken und Wissensspeicher, die alle Aspekte der Dokumentationspraxis umfassen. Es ist ein Leitfaden für Studenten aller mit Dokumentation befaßten Fachrichtungen, z.B. Bibliothekare, Archivare, Buchhändler, sowie aller Fachrichtungen, in denen Datenbankrecherchen durchgeführt werden. Die aktuelle Darstellung der für die Recherchen und Informationsvermittlung wichtigen Dokumentationsszene und -technik ist auch für Praktiker interessant.
  17. Poetzsch, E.: Information Retrieval : Einführung in Grundlagen und Methoden (2005) 0.01
    0.0060180477 = product of:
      0.04814438 = sum of:
        0.04814438 = weight(_text_:darstellung in 591) [ClassicSimilarity], result of:
          0.04814438 = score(doc=591,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.24492538 = fieldWeight in 591, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=591)
      0.125 = coord(1/8)
    
    Footnote
    Rez. in: Information: Wissenschafft & Praxis 56(2005) H.5/6, S.337 (W. Ratzek): "Das zentrale Thema dieses Buches ist das Information Retrieval in Fachinformationsdatenbanken. Seit der ersten Auflage von 1998 liegt nun bereits eine aktualisierte 4. Auflage vor. Neu ist beispielsweise das Kapitel "Fachbezogenes Information Retrieval", das bisher in anderen Büchern der Schriftenreihe behandelt worden war. Die drei Teile des Buches behandeln - die "Grundlagen des Information Retrieval", d.h. u.a. Grundbegriffe, Arten und Anbieter von Datenbanken, Vorbereitung und Durchführung von Recherchen, Retrievalsprachen; - die "Methoden des Information Retrieval", hier geht es im Wesentlichen um die Anwendung und Funktion des Information Retrieval, d.h. Kommando-Retrieval, widowsbasierte Retrievaltools und Web-Search; - "Fachbezogenes Information Retrieval", wobei der Schwerpunkt auf der Wirtschaftsinformation liegt. Zur Gestaltung des Buches heißt es (S. 6): "Für die Darstellung der Inhalte wurde von Anfang an eine komprimierte Form gewählt, die den Studierenden zum einen in der gedruckten Buchausgabe als Begleitmaterial zur Lehre dienen soll und zum anderen die Grundlage für eine Online-Tutorial liefert, das sich gegenwärtig in der Testphase befindet." Damit sind Zielsetzung und Zielgruppe des Bandes benannt. Falls dieses Buch auch nicht-studentische Zielgruppen ansprechen soll, dann erscheint mir, aber auch einer Reihe von Kollegen, die Präsentationsform verbesserungswürdig. Die "komprimierte Form" erinnert an unkommentierte Vorlesungsfolien. Information Retrieval als Werkzeug für Recherchen in Fachinformationsdatenbanken erscheint vor dem Hintergrund der Diskussion über Informationsressourcen für das Wissensmanagements in Organisationen und deren Globalisierungstendenzen erweiterungsbedürftig. Das Konzept des Verlags, eine Schriftenreihe "Materialien zur Information und Dokumentation" herauszugeben, ist zu begrüßen."
  18. Hunter, E.J.: Classification - made simple : an introduction to knowledge organisation and information retrieval (2009) 0.01
    0.0060180477 = product of:
      0.04814438 = sum of:
        0.04814438 = weight(_text_:darstellung in 3394) [ClassicSimilarity], result of:
          0.04814438 = score(doc=3394,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.24492538 = fieldWeight in 3394, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
      0.125 = coord(1/8)
    
    Footnote
    Rez. in: Mitt. VÖB 63(2010) H.1, S.143-147 (O. Oberhauser): " ... Kommen wir zur Kritik, die in den letzten Absätzen ansatzweise schon angeklungen ist. Das Anliegen des Buches ist, wie dem ersten Satz der Einleitung zu entnehmen ist, "to simplify the initial study of classification as used for knowledge organisation and information retrieval" (p. xi). Dies ist dem Autor in den ersten Kapiteln wohl auch gelungen. Die Einführung in die beiden Grundtypen - hier facettierte, dort hierarchische Systeme - ist verständlich und für Anfänger zweifellos gut geeignet. In den folgenden Kapiteln beginnt man sich aber zu fragen, wer eigentlich die Zielgruppe des Buches sein mag. Für Anfänger wird vieles zu schwierig sein, da gerade bei den anspruchsvolleren Aspekten der Text zu oberflächlich ist, keine didaktisch befriedigende Darstellung erfolgt und gelegentlich sogar Fachkenntnisse vorausgesetzt werden. Für Praktiker aus dem Bibliothekswesen fehlt vielfach der Bezug zur alltäglichen Realität, da z.B. Probleme der Buchaufstellung allenfalls am Rande zur Sprache kommen. Hochschullehrer, die eine Lehrveranstaltung zu Klassifikationsthemen vorbereiten müssen, werden manches an dem Buch nützlich finden, vielfach aber ob der mangelnden Detailliertheit zu anderen Unterlagen greifen. So bleibt der oder die "an Fragen der Klassifikation Interessierte" - ein undefiniertes und nicht allzu häufig anzutreffendes Wesen, das aber wahrscheinlich auch existiert und hier eine Fülle von Punkten angerissen findet, die zu einer weiteren Recherche in anderen Quellen animieren. Gut gelungen sind die zahlreichen Beispiele, selbst wenn dafür nicht immer sehr glückliche Notationssysteme gewählt wurden. Auch in sprachlicher Hinsicht ist - zumindest in den Anfangskapiteln - nichts zu bemängeln. Dass die beiden letzten Kapitel eher misslungen sind, wurde bereits oben angedeutet. In den übrigen Abschnitten merkt man dem Buch ebenfalls immer wieder an, dass es in seinen Grundzügen aus der Papier- und nicht aus der Online-Zeit stammt. Dennoch will ich nicht über Gebühr lamentieren, schon deshalb, da es gar nicht so viele brauchbare Lehrbücher zu Klassifikationsthemen gibt. Und in diese letztere Kategorie gehört Hunters Text alldieweil."
  19. Chowdhury, G.G.: Introduction to modern information retrieval (2010) 0.01
    0.0060180477 = product of:
      0.04814438 = sum of:
        0.04814438 = weight(_text_:darstellung in 4903) [ClassicSimilarity], result of:
          0.04814438 = score(doc=4903,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.24492538 = fieldWeight in 4903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=4903)
      0.125 = coord(1/8)
    
    Footnote
    In die Irre führt den unbedarften Leser auf jeden Fall der im Titel postulierte Anspruch, eine Einführung in Information Retrieval zu leisten. Gegenüber dem Leser wäre es ehrlicher, den Titel des Buches entsprechend thematisch zu erweitern, oder aber sich tatsächlich auf das angegebene Gebiet zu konzentrieren. Eine solche Verschlankung um nicht eigentlich für das Verständnis der IR-Konzepte notwendige Materialien täte dem Titel sicher sehr gut und würde auch dessen weitere Verbreitung außerhalb des Informationswesens ermöglichen. Die für die aktuelle Auflage durchgeführte Aktualisierung und Erweiterung bleibt leider an verschiedenen Stellen etwas an der Oberfläche. Man muss deshalb konstatieren, dass die Stärke des Bandes eher in der thematischen Breite liegt, als darin, wirklich einen erschöpfenden Einblick in das Information Retrieval zu geben. Für eine grundlegende Einführung in IR lässt Chowdhury zwar inhaltlich nur wenig vermissen, doch die Kohärenz der Darstellung und die didaktische Aufbereitung des Stoffes sind auf jeden Fall ausbaufähig, um den Ansprüchen an ein Lehrbuch gerecht werden zu können, das auch im Selbststudium durchgearbeitet werden kann. Diese Schwäche ist allerdings auch der Informationswissenschaft selbst anzulasten, die (im Gegensatz etwa zur Informatik) bisher keine allgemein anerkannte Fachdidaktik hervor gebracht hat. Trotz der besprochenen Desiderate ist der Titel bereits jetzt eine empfehlenswerte Ergänzung zu Vorlesungen in den behandelten Gebieten, wenn man einen fachlichen Hintergrund in Bibliotheksoder Informationswissenschaft voraussetzt."
  20. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.01
    0.0060180477 = product of:
      0.04814438 = sum of:
        0.04814438 = weight(_text_:darstellung in 1735) [ClassicSimilarity], result of:
          0.04814438 = score(doc=1735,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.24492538 = fieldWeight in 1735, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
      0.125 = coord(1/8)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen, der Graphentheorie, den statistischen Verfahren sowie der Texttechnologie beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik und Phonologie, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Die drei letzten Teile des Buchs geben Überblicke über die verwendeten sprachtechnologischen Informationsquellen, die vielfältigen Anwendungen in der Praxis sowie über Evaluationsverfahren für sprachverarbeitende Systeme. Anhand konkreter Fragestellungen - von der Entwicklung von Korrekturprogrammen über das Informationsmanagement bis zur Maschinellen Übersetzung - wird das Zusammenwirken der einzelnen Methoden aufgezeigt. Für die dritte Auflage wurden sämtliche Kapitel überarbeitet und aktualisiert sowie zum Teil zu eigenständigen, neuen Kapiteln zusammengeführt. Insbesondere trägt die dritte Auflage der rasanten Entwicklung in der Computerlinguistik und Sprachtechnologie durch eine stärkere Fokussierung auf statistische Grundlagen und Methoden Rechnung. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand." [Manfred Pinkal]

Years

Languages

  • d 24
  • e 16

Types

  • m 37
  • el 2
  • a 1
  • More… Less…

Subjects

Classifications