Search (35 results, page 1 of 2)

  • × year_i:[2000 TO 2010}
  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Hunter, E.J.: Classification - made simple (2002) 0.03
    0.027719207 = product of:
      0.08315762 = sum of:
        0.07089086 = weight(_text_:bibliothek in 3390) [ClassicSimilarity], result of:
          0.07089086 = score(doc=3390,freq=4.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.44904238 = fieldWeight in 3390, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3390)
        0.012266762 = product of:
          0.036800284 = sum of:
            0.036800284 = weight(_text_:29 in 3390) [ClassicSimilarity], result of:
              0.036800284 = score(doc=3390,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.27205724 = fieldWeight in 3390, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3390)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: KO 29(2002) nos.3/4, S.237-238 (M.P. Satija)
    RSWK
    Bibliothek / Information und Dokumentation / Klassifikation
    Subject
    Bibliothek / Information und Dokumentation / Klassifikation
  2. Internet : Eine Einführung in die Nutzung der Internet-Dienste (2000) 0.01
    0.01282722 = product of:
      0.07696332 = sum of:
        0.07696332 = weight(_text_:internet in 3161) [ClassicSimilarity], result of:
          0.07696332 = score(doc=3161,freq=6.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.67795134 = fieldWeight in 3161, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=3161)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  3. Babiak, U.: Effektive Suche im Internet : Suchstrategien, Methoden, Quellen (2001) 0.01
    0.012218945 = product of:
      0.07331367 = sum of:
        0.07331367 = weight(_text_:internet in 6488) [ClassicSimilarity], result of:
          0.07331367 = score(doc=6488,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.64580244 = fieldWeight in 6488, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=6488)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  4. Holzinger, A.: Basiswissen Multimedia : Bd.1: Technik (2000) 0.01
    0.010689351 = product of:
      0.0641361 = sum of:
        0.0641361 = weight(_text_:internet in 5813) [ClassicSimilarity], result of:
          0.0641361 = score(doc=5813,freq=6.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.56495947 = fieldWeight in 5813, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=5813)
      0.16666667 = coord(1/6)
    
    Abstract
    Multimedia und Internet, Hypertext und Hypermedia - spannende Begriffe an der Schwelle zum nächsten Jahrtausend. Das Fachbuch behandelt technologische Grundlagen multimedialer Informationssysteme: - Information und Kommunikation / Signale und Codierung / Audiotechnik / Videotechnik / Multimedia via Internet
    Theme
    Internet
  5. Suchen und Finden im Internet : oder: "Die Nadel im Heuhaufen" (2001) 0.01
    0.010473382 = product of:
      0.06284029 = sum of:
        0.06284029 = weight(_text_:internet in 4489) [ClassicSimilarity], result of:
          0.06284029 = score(doc=4489,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.55354494 = fieldWeight in 4489, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=4489)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  6. Hunter, E.J.: Classification - made simple : an introduction to knowledge organisation and information retrieval (2009) 0.01
    0.009548077 = product of:
      0.057288464 = sum of:
        0.057288464 = weight(_text_:bibliothek in 3394) [ClassicSimilarity], result of:
          0.057288464 = score(doc=3394,freq=8.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.36288103 = fieldWeight in 3394, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
      0.16666667 = coord(1/6)
    
    RSWK
    Bibliothek / Klassifikation / Information und Dokumentation
    Klassifikation / Bibliothek / Einführung (HBZ)
    Subject
    Bibliothek / Klassifikation / Information und Dokumentation
    Klassifikation / Bibliothek / Einführung (HBZ)
  7. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.01
    0.009065884 = product of:
      0.027197652 = sum of:
        0.018514499 = weight(_text_:internet in 5773) [ClassicSimilarity], result of:
          0.018514499 = score(doc=5773,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 5773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.008683153 = product of:
          0.02604946 = sum of:
            0.02604946 = weight(_text_:22 in 5773) [ClassicSimilarity], result of:
              0.02604946 = score(doc=5773,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.19345059 = fieldWeight in 5773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5773)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
    Source
    Password. 2000, H.5, S.22-31
  8. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.01
    0.009053299 = product of:
      0.027159896 = sum of:
        0.017902646 = weight(_text_:bibliothek in 38) [ClassicSimilarity], result of:
          0.017902646 = score(doc=38,freq=2.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.113400325 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
        0.0092572495 = weight(_text_:internet in 38) [ClassicSimilarity], result of:
          0.0092572495 = score(doc=38,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.081544876 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären.
  9. Wands, B.: Digital creativity : techniques for digital media and the Internet (2002) 0.01
    0.008727819 = product of:
      0.05236691 = sum of:
        0.05236691 = weight(_text_:internet in 1181) [ClassicSimilarity], result of:
          0.05236691 = score(doc=1181,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.46128747 = fieldWeight in 1181, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=1181)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  10. Glöggler, M.: Suchmaschinen im Internet : Funktionsweisen, Ranking, Methoden, Top Positionen (2003) 0.01
    0.008640099 = product of:
      0.051840592 = sum of:
        0.051840592 = weight(_text_:internet in 1818) [ClassicSimilarity], result of:
          0.051840592 = score(doc=1818,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.45665127 = fieldWeight in 1818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.109375 = fieldNorm(doc=1818)
      0.16666667 = coord(1/6)
    
  11. Glöggler, M.: Suchmaschinen im Internet : Funktionsweisen, Ranking, Methoden, Top Positionen (2006) 0.01
    0.007405799 = product of:
      0.044434793 = sum of:
        0.044434793 = weight(_text_:internet in 5930) [ClassicSimilarity], result of:
          0.044434793 = score(doc=5930,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.3914154 = fieldWeight in 5930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=5930)
      0.16666667 = coord(1/6)
    
  12. Bertram, J.: Einführung in die inhaltliche Erschließung : Grundlagen - Methoden - Instrumente (2005) 0.01
    0.0072426386 = product of:
      0.021727916 = sum of:
        0.014322116 = weight(_text_:bibliothek in 210) [ClassicSimilarity], result of:
          0.014322116 = score(doc=210,freq=2.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.09072026 = fieldWeight in 210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.015625 = fieldNorm(doc=210)
        0.007405799 = weight(_text_:internet in 210) [ClassicSimilarity], result of:
          0.007405799 = score(doc=210,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.0652359 = fieldWeight in 210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.015625 = fieldNorm(doc=210)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Buch beginnt mit einem Überblick über die wesentlichen Themen der Inhaltserschließung (Kap. 1). Es führt in die zentrale Problemstellung ein, die sich an die Dualität zwischen Begriffen und Bezeichnungen knüpft (Kap. 2). Danach stehen die Methoden der Inhaltserschließung im Vordergrund: Das Abstracting (Kap. 3), das Indexieren (Kap. 4) und automatische Verfahren der Inhaltserschließung (Kap. 5). Für diese Methoden werden jeweils Arbeitschritte und Qualitätskriterien benannt und es werden typologische Unterteilungen vorgenommen. Ein weiteres Kapitel ist einem häufig vernachlässigtem Produkt inhaltserschließender Tätigkeit gewidmet, dem Register (Kap. 6). Mit Dokumentationssprachen kommen dann wichtige Erschließungsinstrumente zu Wort. Nach einem Überblick (Kap. 7) geht es um ihre beiden Ausprägungen, nämlich um Klassifikationen (Kap. 8-10) und um Thesauri (Kap. 11-12). Sie werden vor allem unter dem Aspekt ihrer Erstellung thematisiert. Zudem werden Qualitätskriterien und typologische Ausformungen angesprochen. Nach einem zusammenfassenden Vergleich von Dokumentationssprachen (Kap. 13) wird mit dem Internet schließlich exemplarisch ein Anwendungsbereich vorgestellt. Dabei geht es zunächst um die Erschließung von Internetquellen ganz allgemein (Kap. 14) und dann besonders um diejenige von Fachinformationsquellen (Kap. 15). Jedes Kapitel beginnt mit einem Überblick über die wesentlichen Inhalte und die zugrunde liegende Literatur und endet mit ausgewählten bibliographischen Angaben. Diese sind gegebenenfalls mit Hinweisen auf Rezensionen versehen. Die Gesamtheit der zitierten Literatur findet sich im abschließenden Literaturverzeichnis. Grundlegende Begriffe sind gesperrt kursiv, Beispiele und Eigennamen einfach kursiv gesetzt, Pfeile (->) stellen stets Verweise auf Abbildungen oder Tabellen dar. Die angeführten Internetquellen wurden zuletzt am 11-2-2005 auf ihre Gültigkeit hin überprüft. Die vier theoretischen Kernmodule (Abstracting, Indexieren, Klassifikationen, Thesauri) werden von Übungsbeispielen flankiert, wie ich sie so oder so ähnlich in der Lehre am IID eingesetzt habe. Sie sind mit exemplarischen Lösungsvorschlägen versehen. Dabei versteht es sich von selbst, daß diese Vorschläge nur einige wenige von vielen möglichen darstellen. Mein Dank für das Zustandekommen dieser Publikation gilt zunächst den Teilnehmerinnen und Teilnehmer meiner Kurse am III). Sie haben mich durch ihre ermutigenden Rückmeldungen, ihre rege Beteiligung am Unterrichtsgeschehen und ihre kritischen Fragen immer wieder dazu motiviert, Lehrinhalte zu hinterfragen und zu präzisieren. Jutta Lindenthal hat mit wertvollen Anregungen zu diesem Buch beigetragen. Außerdem danke ich ihr für die immense Sorgfalt, Zeit und Geduld, die sie auf das Gegenlesen des Manuskripts verwandt hat, und vor allem für ihre Begeisterungsfähigkeit. Für die akribische Suche nach formalen Fehlern geht ein herzliches Dankeschön an meinen Vater. Mein Dank für Korrekturtätigkeiten gilt ferner Sabine Walz und Jan Dürrschnabel. Zum Schluß noch eine persönliche Anmerkung: Ich übernahm die Inhaltserschließung damals mit einer großen Portion Skepsis und in der Erwartung, es mit einer unendlich trockenen Materie zu tun zu bekommen. Je intensiver ich mich dann damit beschäftigte, desto größer wurde meine Begeisterung. Wenn ich meinen Lesern auch nur einen Funken davon vermitteln kann, dann wäre das für mich ein großer Erfolg.
    Footnote
    Weitere Rez. in: Mitt VÖB 59(2006) H.1, S.63-66 (O. Oberhauser); BuB 58(2006) H.4, S.344-345 (H. Wiesenmüller): " ... Um die Sacherschließung ist es dagegen merkwürdig still geworden. Vielerorts wird sie - so scheint es zumindest der Rezensentin - inzwischen primär als Kostenfaktor wahrgenommen. Neue, als wichtiger empfundene Aufgaben (namentlich die Vermittlung von Informationskompetenz) lassen sie mehr und mehr in den Hintergrund treten. Auch der Entschluss Der Deutschen Bibliothek, verstärkt auf klassifikatorische Erschließung mit Dewey's Decimal Classification (DDC) zu setzen, hat keine breite Grundsatzdiskussion angestoßen; die Neuerung wird bisher nahezu ausschließlich unter dem Aspekt wegfallender Fremddaten bei den Schlagwortketten betrachtet. Unter Bibliothekaren ist das Interesse an der Sacherschließung derzeit also eher gering ... Es wäre gut, wenn künftig wieder mehr über Sacherschließung nachgedacht und geredet würde. Das nötige Grundlagenwissen für eine qualifizierte Diskussion kann der hier vorgestellte Band vermitteln. Er sei deshalb sowohl denen ans Herz gelegt, die sich für inhaltliche Erschließung interessieren, als auch jenen, die dies bisher (noch) nicht tun."
  13. Rowley, J.E.; Hartley, R.: Organizing knowledge : an introduction to managing access to information (2008) 0.01
    0.005455294 = product of:
      0.016365882 = sum of:
        0.011108698 = weight(_text_:internet in 2464) [ClassicSimilarity], result of:
          0.011108698 = score(doc=2464,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.09785385 = fieldWeight in 2464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2464)
        0.005257183 = product of:
          0.01577155 = sum of:
            0.01577155 = weight(_text_:29 in 2464) [ClassicSimilarity], result of:
              0.01577155 = score(doc=2464,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.11659596 = fieldWeight in 2464, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2464)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    4. 2.2018 12:58:29
    Footnote
    Rez. in: VOEB-Mitt. 61(2008) H.4, S.164-167 (O. Oberhauser): " Dieses nunmehr in vierter Auflage vorliegende Werk ist - vor allem in der angelsächsischen Welt - bereits zu einem Standardlehrtext für Studenten informationswissenschaftlicher Studiengänge geworden. Es zeichnete sich stets durch klaren Aufbau, gute Lesbarkeit und eine bei aller Knappheit doch relativ umfassende Themenbehandlung aus. Der im Titel verwendete Begriff organizing knowledge steht hier ja nicht für mögliche engere Bedeutungen wie etwa Wissensrepräsentation oder gar Klassifikation, sondern für den gesamten Themenbereich information retrieval bzw. information management. Die beiden ersten Auflagen verfasste die versierte und produktive Lehrbuchautorin Jennifer Rowley noch alleine;1 erst bei der dritten Auflage (2000) stand ihr John Farrow (2002 verstorben) als Mitautor zur Seite.2 Inzwischen zur Professorin am Department of Information and Communications der Manchester Metropolitan University avanciert, konnte Rowley nunmehr für die neueste Auflage den ebenfalls als Lehrbuchautor erfahrenen Richard Hartley, Professor am selben Institut und überdies dessen Vorstand, als zweiten Verfasser gewinnen. Wie die Autoren in der Einleitung ausführen, wurde das Buch gegenüber der letzten Auflage stark verändert. Die Neuerungen spiegeln insbesondere die anhaltende Verschiebung hin zu einer vernetzten und digitalen Informationswelt wider, mit allen Konsequenzen dieser Entwicklung für Dokumente, Information, Wissen, Informationsdienste und Benutzer. Neue bzw. stark überarbeitete Themenbereiche sind u.a. Ontologien und Taxonomien, Informationsverhalten, digitale Bibliotheken, Semantisches Web, Evaluation von Informationssystemen, Authentifizierung und Sicherheit, Veränderungsmanagement. Der Text wurde revidiert und auch, was diverse Standards und Normen betrifft, auf den aktuellen Stand gebracht. Der in der dritten Auflage noch separate Abschnitt über das Internet und seine Anwendungen wurde zugunsten einer Integration dieser Themen in die einzelnen Kapitel aufgelassen. Das Buch wurde neu gegliedert - es weist jetzt zwölf Kapitel auf, die in drei grosse Abschnitte gruppiert sind. Jedes Kapitel beginnt mit einer kurzen Einleitung, in der die beabsichtigten Lehr- bzw. Lernziele vorgestellt werden. Am Kapitelende gibt es jeweils eine Zusammenfassung, einige (Prüfungs-)Fragen zum Stoff sowie eine nicht allzu lange Liste der zitierten bzw. zur Vertiefung empfohlenen Literatur. Diese durchgehende Strukturierung erleichtert die Lektüre und Rezeption der Inhalte und ist m.E. für einen Lehrtext besonders vorteilhaft.
  14. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.01
    0.00543953 = product of:
      0.01631859 = sum of:
        0.011108698 = weight(_text_:internet in 729) [ClassicSimilarity], result of:
          0.011108698 = score(doc=729,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.09785385 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.005209892 = product of:
          0.015629675 = sum of:
            0.015629675 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
              0.015629675 = score(doc=729,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.116070345 = fieldWeight in 729, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=729)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Date
    22. 6.2005 15:12:11
  15. Stein, M.: Workshop XML (2001) 0.00
    0.0043200497 = product of:
      0.025920296 = sum of:
        0.025920296 = weight(_text_:internet in 1463) [ClassicSimilarity], result of:
          0.025920296 = score(doc=1463,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.22832564 = fieldWeight in 1463, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1463)
      0.16666667 = coord(1/6)
    
    Abstract
    XML wird mit jedem Tag populärer. Als universelles Datenformat gewinnt es immer mehr an Bedeutung nicht nur für die Datenspeicherung, sondern auch bei der Übertragung von Informationen im Internet. Die Vielfalt der Möglichkeiten macht es jedoch schwierig, jeden Aspekt von XML zu überblicken. Aus diesem Grund wurde in diesem Buch Wert auf praxisnahes Know-How gelegt. Der Autor besitzt nicht nur umfangreiche Kenntnisse über XML, er ist auch ein erfahrener Webentwickler und kennt die Tücken des Programmierer-Alltags. Er hat ein Buch zusammengestellt, dass Ihnen mit praktischen Übungen und Tipps zu eleganten und sinnvollen Lösungen im Umgang mit XML verhilft. Vertiefen Sie Ihre XML-Kenntnisse. Lernen Sie anhand praktischer Übungen mehr über XML-Schema, Namespaces, XPath, XLink und XSLT.
  16. Chan, L.M.; Mitchell, J.S.: Dewey Decimal Classification : principles and applications (2003) 0.00
    0.0040521384 = product of:
      0.02431283 = sum of:
        0.02431283 = product of:
          0.07293849 = sum of:
            0.07293849 = weight(_text_:22 in 3247) [ClassicSimilarity], result of:
              0.07293849 = score(doc=3247,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.5416616 = fieldWeight in 3247, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3247)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Object
    DDC-22
  17. Kowalski, G.J.; Maybury, M.T.: Information storage and retrieval systems : theory and implemetation (2000) 0.00
    0.0037028994 = product of:
      0.022217397 = sum of:
        0.022217397 = weight(_text_:internet in 6727) [ClassicSimilarity], result of:
          0.022217397 = score(doc=6727,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1957077 = fieldWeight in 6727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=6727)
      0.16666667 = coord(1/6)
    
    Abstract
    This book provides a theoretical and practical explanation of the latest advancements in information retrieval and their application to existing systems. It takes a system approach, discussing all aspects of an IR system. The major difference between this book and the first edition is the addition to this text of descriptions of the automated indexing of multimedia dicuments, as items in information retrieval are now considered to be a combination of text along with graphics, audio, image and video data types. The growth of the Internet and the availability of enormous volumes of data in digital form have necessitated intense interest in techniques to assist the user in locating data
  18. Taylor, A.G.: Wynar's introduction to cataloging and classification (2000) 0.00
    0.003504789 = product of:
      0.021028733 = sum of:
        0.021028733 = product of:
          0.0630862 = sum of:
            0.0630862 = weight(_text_:29 in 4586) [ClassicSimilarity], result of:
              0.0630862 = score(doc=4586,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.46638384 = fieldWeight in 4586, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4586)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Footnote
    Rez. in. KO 29(2002) no.2, S.109 (M.P. Satija)
  19. McIlwaine, I.C.: ¬The Universal Decimal Classification : a guide to its use (2000) 0.00
    0.00308575 = product of:
      0.018514499 = sum of:
        0.018514499 = weight(_text_:internet in 161) [ClassicSimilarity], result of:
          0.018514499 = score(doc=161,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 161, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=161)
      0.16666667 = coord(1/6)
    
    Abstract
    This book is an extension and total revision of the author's earlier Guide to the use of UDC. The original was written in 1993 and in the intervening years much has happened with the classification. In particular, a much more rigorous approach has been undertaken in revision to ensure that the scheme is able to handle the requirements of a networked world. The book outlines the history and development of the Universal Decimal Classification, provides practical hints on its application and works through all the auxiliary and main tables highlighting aspects that need to be noted in applying the scheme. It also provides guidance on the use of the Master Reference File and discusses the ways in which the classification is used in the 21st century and its suitability as an aid to subject description in tagging metadata and consequently for application on the Internet. It is intended as a source for information about the scheme, for practical usage by classifiers in their daily work and as a guide to the student learning how to apply the classification. It is amply provided with examples to illustrate the many ways in which the scheme can be applied and will be a useful source for a wide range of information workers
  20. Ladyman, J.: Understanding philosophy of science (2002) 0.00
    0.00308575 = product of:
      0.018514499 = sum of:
        0.018514499 = weight(_text_:internet in 1835) [ClassicSimilarity], result of:
          0.018514499 = score(doc=1835,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 1835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1835)
      0.16666667 = coord(1/6)
    
    Abstract
    Few can imagine a world without telephones or televisions; many depend an computers and the Internet as part of daily life. Without scientific theory, these developments would not have been possible. In this exceptionally clear and engaging introduction to the philosophy of science, James Ladyman explores the philosophical questions that arise when we reflect an the nature of the scientific method and the knowledge it produces. He discusses whether fundamental philosophical questions about knowledge and reality might be answered by science, and considers in detail the debate between realists and antirealists about the extent of scientific knowledge. Along the way, central topics in the philosophy of science, such as the demarcation of science from non-science, induction, confirmation and falsification, the relationship between theory and observation, and relativism, are all addressed. Important and complex current debates over underdetermination, inference to the best explanation and the implications of radical theory change are clarified and clearly explained for these new to the subject. The style is refreshing and unassuming, bringing to life the essential questions in the philosophy of science. Ideal for any student of philosophy or science, this book requires no previous knowledge of either discipline. It contains the following textbook features: - suggestions for further reading - cross-referencing with an extensive bibliography.

Languages

  • e 18
  • d 17

Types

  • m 33
  • a 1
  • el 1
  • s 1
  • More… Less…