Search (1056 results, page 1 of 53)

  • × year_i:[2000 TO 2010}
  • × type_ss:"m"
  1. Lexikon der Mathematik (2000-2003) 0.21
    0.20569894 = product of:
      0.27426526 = sum of:
        0.2062398 = weight(_text_:lexikon in 4614) [ClassicSimilarity], result of:
          0.2062398 = score(doc=4614,freq=4.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.68551236 = fieldWeight in 4614, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4614)
        0.052850362 = weight(_text_:von in 4614) [ClassicSimilarity], result of:
          0.052850362 = score(doc=4614,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.41267726 = fieldWeight in 4614, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4614)
        0.01517511 = product of:
          0.045525327 = sum of:
            0.045525327 = weight(_text_:22 in 4614) [ClassicSimilarity], result of:
              0.045525327 = score(doc=4614,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.2708308 = fieldWeight in 4614, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4614)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Abstract
    Das neue Lexikon der Mathematik bietet in insgesamt ca. 17.000 Stichworteinträgen einen umfassenden Überblick über die moderne Mathematik, ihre Fachterminologie und ihre Anwendungen. Die behandelten Fachgebiete reichen von so klassischen Fachgebieten wie Geometrie, Zahlentheorie oder auch Geschichte der Mathematik über Numerische Mathematik, Graphentheorie, Versicherungsmathematik und Optimierung bis hin zu modernsten Anwendungen wie etwa Wavelets, kryptographischen und Codierungsverfahren oder Neuronale Netze. Besondere Berücksichtigung fanden bei der Konzeption des Lexikons die Biographien bedeutender Mathematikerinnen und Mathematiker, von der Antike (Diophant, Euklid) bis hin zur Gegenwart (Collatz, Faltings, Hirzebruch). Dadurch wurde dem Umstand Rechnung getragen, dass gerade in der Mathematik eine Fülle von Verfahren, Methoden oder auch Lehrsätzen existiert, die nach Persönlichkeiten benannt sind, von denen der Leser gerne etwas mehr erfahren möchte, so z.B. 'abelsche Gruppe', 'Satz des Pythagoras', 'euklidischer Algorithmus' oder 'Gaußsche Normalverteilung'
    Date
    22. 7.2000 18:06:10
  2. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.11
    0.1103033 = product of:
      0.14707106 = sum of:
        0.10416682 = weight(_text_:lexikon in 734) [ClassicSimilarity], result of:
          0.10416682 = score(doc=734,freq=2.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.346236 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.01887513 = weight(_text_:von in 734) [ClassicSimilarity], result of:
          0.01887513 = score(doc=734,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.14738473 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.024029106 = product of:
          0.03604366 = sum of:
            0.003525567 = weight(_text_:a in 734) [ClassicSimilarity], result of:
              0.003525567 = score(doc=734,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.06369744 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
            0.032518093 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.032518093 = score(doc=734,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.6666667 = coord(2/3)
      0.75 = coord(3/4)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
    Footnote
    Rez. in: Franfurter Rundschau Nr.43 vom 20.2.2001, S.23 (A. Barthelmy)
    Issue
    Aus dem Engl. übers. von Martina Wiese.
  3. Strauch, D.; Rehm, M.: Lexikon Buch, Bibliothek, neue Medien (2007) 0.11
    0.106829375 = product of:
      0.21365875 = sum of:
        0.19764267 = weight(_text_:lexikon in 1834) [ClassicSimilarity], result of:
          0.19764267 = score(doc=1834,freq=20.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.65693665 = fieldWeight in 1834, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1834)
        0.01601608 = weight(_text_:von in 1834) [ClassicSimilarity], result of:
          0.01601608 = score(doc=1834,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.1250601 = fieldWeight in 1834, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1834)
      0.5 = coord(2/4)
    
    Content
    Früher u.d.T.: Rehm, Margarete: Lexikon Buch, Bibliothek, neue Medien
    Footnote
    Rez. in: ZfBB 55(2008) H.2, S.109-111 (H. Meinhardt): "Das vorliegende Lexikon erschien erstmals 1991 und wurde nun, vor allem im Bereich Neue Medien entscheidend erweitert. Die neuen Entwicklungen im Bereich der Informations- und Kommunikationstechnik und die vielfältigen Konsequenzen in Hinblick auf die Arbeit von Bibliotheken bzw.Veränderungen im Buch- und Verlagswesen sollen sich im Lexikon wieder finden. Das Konzept des Titels war und ist überaus ehrgeizig: Die großen Gebiete Buch, Bibliothek und Medien in einem alphabetisch angelegten Lexikon abzudecken, um, wie im Vorwort der 1. Auflage formuliert wurde, »einen Überblick über den das Buch betreffenden Wissensstoff zu geben und das Wichtigste über Aufgaben und Arbeitsweise der Bibliotheken zu vermitteln«. Zielgruppen sind sowohl die »im Bibliotheks- oder Dokumentationsbereich tätigen Praktiker« wie auch die Studierenden, denen mit diesem Lexikon ein, wie Dietmar Strauch anmerkt »vielseitig verwendbares Nachschlagewerk« an die Hand gegeben wird, das zudem in vielen Bereichen »auch als Lehrbuch« verwendet werden könne. Um es vorweg zu nehmen: diesem Anspruch wird das Lexikon leider nur in Teilen gerecht; es finden sich zu viele Unstimmigkeiten, sachlich falsche oder veraltete Einträge, schwer erklärbare inhaltliche Lücken, inhaltlich kaum nachvollziehbare Gewichtungen, und eine Verweisstruktur, die teils inkonsistent ist, die den Wert des Lexikons entscheidend mindern. Dass es, natürlich, einen Wert hat und sehr viele der Stichwörter den Fragenden knapp und korrekt informieren, das soll an dieser Stelle auch betont und belegt werden.
    Das Lexikon hat unbestreitbar seinen Wert. Der Umfang an Kenntnissen, der vor allem im Bereich Buch, auch mit Abstrichen durch die bibliotheksbezogenen und bibliothekshistorischen Artikel vermittelt wird, ist immens. Für eine erste Einstiegsinformation ist ein Großteil der Beiträge tauglich. Das gilt übrigens auch ausdrücklich in Bezug auf die Neuen Medien bzw. Informations- und Kommunikationstechnologie - was hier an Neueinträgen geleistet wurde, ist kaum zu überschätzen. Die großen Schwächen sind jedoch mangelnde inhaltliche Aktualität, ein unzureichendes Lektorat, große qualitative Heterogenität und eine Konzeption, die überdacht werden sollte. Das beginnt schon bei der Autorschaft. Ist es denn heute tatsächlich noch denkbar, dass im Wesentlichen zwei unbestreitbar kompetente Autoren in der Lage sind, solch »ein« Riesengebiet, das zudem äußerst dynamisch ist, auch nur annähernd zu überblicken? Wäre es nicht wesentlich sinnvoller, einen großen Autorenkreis einzubeziehen und diesem ein leistungsfähiges Lektorat an die Seite zu geben? Zu überlegen wäre, ob die Konzeption nicht auch in anderer Hinsicht abgeändert werden sollte. Die Entscheidung 1991, die Bereiche Buch, Bibliothek und Neue Medien lexikalisch zusammen zu führen, hatte ja unbestreitbar ihre guten Gründe - die Verwandtschaft bzw. Konvergenz der Arbeitsfelder von Bibliothekaren, Dokumentaren und Archivaren. Ein Prozess, der auch aus heutiger Sicht fortdauert. Nun sollte ein Lexikon »der Konvergenz« genau diese auch sichtbar werden lassen: über gute Verweise und über Einträge, die Unterschiede und Gemeinsamkeiten transparent werden lassen. Ein Haupteintrag Erschließung müsste mithin die Perspektiven der Bereiche integrieren. Auch in der zweiten Auflage hat der Titel eine deutlich historische Schlagseite, die die Rezensentin sehr zu würdigen weiß. Und dennoch - hier am ehesten ließe sich inhaltlich zukünftig umschichten. Vorschlag: Ein Lexikon Buch- und Bibliotheksgeschichte einerseits sowie andererseits eines, das der Konvergenz Archiv, Bibliothek, Dokumentation (Informationswissenschaft) als einer Erscheinung des 20. und 21. Jahrhunderts Rechnung trüge."
  4. Schippan, T.: Lexikologie der deutschen Gegenwartssprache (2002) 0.09
    0.091602206 = product of:
      0.18320441 = sum of:
        0.14583357 = weight(_text_:lexikon in 957) [ClassicSimilarity], result of:
          0.14583357 = score(doc=957,freq=2.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.48473042 = fieldWeight in 957, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.0546875 = fieldNorm(doc=957)
        0.03737085 = weight(_text_:von in 957) [ClassicSimilarity], result of:
          0.03737085 = score(doc=957,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29180688 = fieldWeight in 957, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=957)
      0.5 = coord(2/4)
    
    Abstract
    Das Buch führt in die Theorie von Wort und Wortschatz der deutschen Sprache ein. Sein Gegenstand ist so komplexer Natur, die Literatur über ihn kaum mehr überschaubar, so daß nur die grundsätzlichen Probleme, die mit dem Lexikon verbunden sind, behandelt werden können: das Wesen des Wortes als sprachliche Grundeinheit, Probleme einer Wortdefinition, Begriff und Arten der Motivation, Wortbildung und Wortbedeutung, der Aufbau des Lexikons und die lexisch-semantischen Beziehungen im Text und im System, die soziale Gliederung des deutschen Wortschatzes, Ursachen und Triebkräfte seiner Veränderungen, des Bedeutungswandels, der Entstehung von Neologismen und Archaismen und der Übernahme fremden Wortgutes. Das Buch ist keine Forschungsmonographie, die einer einzigen der vielen gegenwärtigen sprachwissenschaftlichen Richtungen und Schulen verpflichtet ist, sondern will mit möglichst vielen Forschungsansätzen vertraut machen und in die Lexikologie als Studiendisziplin einführen.
  5. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.08
    0.08282082 = product of:
      0.11042776 = sum of:
        0.08333346 = weight(_text_:lexikon in 548) [ClassicSimilarity], result of:
          0.08333346 = score(doc=548,freq=2.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.2769888 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.02615415 = weight(_text_:von in 548) [ClassicSimilarity], result of:
          0.02615415 = score(doc=548,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.20422229 = fieldWeight in 548, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        9.401512E-4 = product of:
          0.0028204536 = sum of:
            0.0028204536 = weight(_text_:a in 548) [ClassicSimilarity], result of:
              0.0028204536 = score(doc=548,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.050957955 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
  6. Thissen, F.: Screen-Design-Manual : Communicating Effectively Through Multimedia (2003) 0.08
    0.08216511 = product of:
      0.16433021 = sum of:
        0.01887513 = weight(_text_:von in 1397) [ClassicSimilarity], result of:
          0.01887513 = score(doc=1397,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.14738473 = fieldWeight in 1397, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1397)
        0.14545508 = sum of:
          0.006106462 = weight(_text_:a in 1397) [ClassicSimilarity], result of:
            0.006106462 = score(doc=1397,freq=6.0), product of:
              0.055348642 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04800207 = queryNorm
              0.11032722 = fieldWeight in 1397, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1397)
          0.10683053 = weight(_text_:z in 1397) [ClassicSimilarity], result of:
            0.10683053 = score(doc=1397,freq=4.0), product of:
              0.2562021 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04800207 = queryNorm
              0.41697758 = fieldWeight in 1397, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1397)
          0.032518093 = weight(_text_:22 in 1397) [ClassicSimilarity], result of:
            0.032518093 = score(doc=1397,freq=2.0), product of:
              0.16809508 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04800207 = queryNorm
              0.19345059 = fieldWeight in 1397, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1397)
      0.5 = coord(2/4)
    
    Abstract
    The "Screen Design Manual" provides designers of interactive media with a practical working guide for preparing and presenting information that is suitable for both their target groups and the media they are using. It describes background information and relationships, clarifies them with the help of examples, and encourages further development of the language of digital media. In addition to the basics of the psychology of perception and learning, ergonomics, communication theory, imagery research, and aesthetics, the book also explores the design of navigation and orientation elements. Guidelines and checklists, along with the unique presentation of the book, support the application of information in practice.
    Classification
    ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
    Date
    22. 3.2008 14:29:25
    Issue
    Aus dem Deutschen übersetzt von: Rager, J.G.
    RVK
    ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
  7. Wikipedia : das Buch : aus der freien Enzyklopädie Wikipedia ; [mit der DVD-ROM Wikipedia 2005/2006] (2005) 0.08
    0.07504184 = product of:
      0.100055784 = sum of:
        0.0721689 = weight(_text_:lexikon in 118) [ClassicSimilarity], result of:
          0.0721689 = score(doc=118,freq=6.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.23987935 = fieldWeight in 118, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.0272221 = weight(_text_:von in 118) [ClassicSimilarity], result of:
          0.0272221 = score(doc=118,freq=26.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2125613 = fieldWeight in 118, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        6.6478737E-4 = product of:
          0.001994362 = sum of:
            0.001994362 = weight(_text_:a in 118) [ClassicSimilarity], result of:
              0.001994362 = score(doc=118,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.036032718 = fieldWeight in 118, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.015625 = fieldNorm(doc=118)
          0.33333334 = coord(1/3)
      0.75 = coord(3/4)
    
    Abstract
    Das 1. "Benutzungs"-Handbuch zur freien Internet-Enzyklopädie Wikipedia gibt dem Neuling eine Einführung in das Arbeiten in und mit dem Online-Lexikon. Sowohl der passive Nutzer als auch der aktive Mitarbeiter erhält "Hilfen, Ratschläge, Anweisungen und Tipps". Das Buch richtet sich aber auch an versierte Wikipedia-Mitarbeiter, die einfach einmal schnell eine Information nachschlagen wollen. Außerdem gibt es einen Überblick über die Entstehungsgeschichte des Internetprojekts. Und das Besondere: Alle Kapitel des Buches sind aus der deutschsprachigen Wikipedia zusammengestellt und dort nachschlagbar. Dazu gibt es die DVD-ROM mit der über 300.000 Artikel umfassenden Offline-Version des Lexikons. Redaktionsstand: Oktober 2005.
    Classification
    A 010
    Content
    Einführung in das Arbeiten in und mit dem Online-Lexikon; mit Hilfen, Ratschlägen, Anweisungen und Tipps sowohl für passive Nutzer als auch aktive Mitarbeiter. Beiliegende DVD-ROM enthält über 300.000 Artikel der Offline-Version des Lexikons.
    Footnote
    Rez. in: ZfBB 53(2006) H.6, S.319-321 (R. Strzolka): "Bespricht man ein Buch, welches der Wikipedia - vorsichtig ausgedrückt, nahe steht -, so ist es sinnvoll, dies im Bewusstsein einer Öffentlichkeit zu tun, die zwischen berechtigter Kritik und kritikloser Sektenhaftigkeit der Wikipedianer oszilliert. Wirklich gleichgültig ist die Wikipedia kaum jemandem, der sich mit Informationsvermittlung beschäftigt. Einer der Vorzüge ist zugleich die Achillesferse des Projektes: der offene Zugang ermöglicht zum einen für jedermann die Mitarbeit, öffnet andererseits aber auch Tür und Tor für Manipulationen. Dass die Offenheit des WikipediaKonzeptes als Gefahr empfunden wird, zeigt die Tatsache, dass Chinas größte Suchmaschine Baidu im Mai 2006 eine eigene Alternative zur Wikipedia ins Netz stellte und der Zugang zur allgemeinen Wikipedia gesperrt wurde. Die an sich reizvolle Grundidee, dass ein offenes Projekt sich von selbst justiert und Fehler auf diese Weise binnen kurzer Zeit korrigiert werden, scheint sich nicht so selbstverständlich zu verwirklichen wie die Initiatoren der Wikipedia 200s dachten, als das Projekt online ging. Während die Kritik in den populären Massenmedien wie dem SPIEGEL sich vor allem um spektakuläre Manipulationen von Biographien Prominenter dreht, kritisiert die wissenschaftliche Diskussion eher Fragen kultureller Gleichschaltung durch einen globalen Diskurs. Die Diskussion um Fälschungen zur Biographie eines führenden Siemens-Mitarbeiters schlug Mitte 2006 hohe Wogen, doch wurden auch Angaben zu Bill Gates oder Jane Fonda gefälscht oder der Journalist John Seigentler verdächtigt, in die Ermordung von John und Robert Kennedy verwickelt gewesen zu sein (Wikipedia in der Kritik www.heute.de/ZDFheute/inhalt/14/0,3672,3022414.htm). Der Journalist Nicholas Carr hatte ein Jahr zuvor schon in einem Blog die Qualität der Wikipedia drastisch kritisiert und der WikipediaMitbegründer Jimmy Wales hatte ihm in einem Kommentar dazu in weiten Teilen Recht gegeben (www.roughtype.com/ archives/2005/10/the_amorality_0.php). Allerdings verblüfft die Art Qualitätsstandard, die Wales anstrebt, weil er zugab, dass die Artikel über Fonda und Gates schlecht seien - dies wäre schlimmer als handelte es sich um Einträge zu einem Dichter des 13. Jahrhunderts. Gerade bei solchen Randthemen aber ist eine Enzyklopädie interessant, nicht bei Klatsch über Prominente, für die es genügend andere Quellen gibt.
    Kritisiert wird, dass viele der Einträge der Wikipedia einfach ein Sammelsurium aus bereits vorhandenen Lexikatexten darstellen oder dass komplette Beiträge aus DDR-Lexika eingestellt werden, ohne dass auf diese Tatsache hingewiesen wird. Rassistische Diskurse aus dem 19. und 20. Jahrhundert werden vielfach fortgeschrieben und nur moderat modernisiert. So werden in den Meinungsforen unter anderem Begriffe wie »Indianer« für die amerikanischen Ureinwohner benutzt mit der Begründung, der Begriff sei dank Karl May gar nicht negativ besetzt. Ebenso wie ein stark christliches Bias vielfach kritisiert wird, das von der Tatsache ablenkt, dass der überwiegende Teil der Menschheit anderen Religionen oder gar keiner anhängen. Diese christliche Orientierung scheint für die deutsche Version der Wikipedia typisch zu sein, andere Versionen des Netzwerkes kommen ohne christliche Symbolik aus, darunter sogar die italienische oder die spanische. Die zahlreichen Vorwürfe sorgten für eine Änderung des Publikationsverfahrens innerhalb der Wikipedia: jeder Autor eines neuen Artikels muss sich registrieren lassen, bevor der Artikel frei geschaltet wird. Allerdings findet keine echte Authentifizierung statt. Mittlerweile erstreckt sich die Kontrolle auch auf Änderungen an vorhandenen Artikeln -das Publikationsverhalten bei den verschiedenen Versionen ist durchaus unterschiedlich: während in der englischen Version die Tendenz besteht neue Artikel zu schreiben, werden in der deutschen Version gerne vorhandene Artikel modifiziert. Obwohl die Wikipedia Anlass zu Kritik bietet, so sollte sie - neben hierarchisch, in geschlossenen Systemen erstellten Nachschlagewerken -durchaus konsultiert werden. Es gibt viele Themen, zu denen in Allgemeinenzyklopädien wenig Information steht, so dass eine Fachenzyklopädie sicherlich in vielen Fällen vorzuziehen ist. Sie zu ermitteln dürfte keine Mühe bereiten. Es ist allerdings nicht tragbar, die Wikipedia als einzige Quelle zu akzeptieren. Immerhin dürfte sie das einzige lexikalische Projekt sein, an dem Menschen in mehr als 10o Sprachen mitarbeiten. Und wie gut die Selbstregulierungsmechanis men funktionieren, zeigt beispielhaft die Tatsache, dass die illegal aus DDR-Lexika eingestellten Texte von anderen Mitarbeitern entdeckt worden waren, obwohl sie ausschließlich gedruckt vorlagen und nicht durch Suchmaschinen gefunden werden konnten. Dies ändert nichts daran, dass manche Texte von miserabler Qualität einfach für lange Zeit unbearbeitet bleiben.
    »Wikipedia - Das Buch« schickt sich an, das zumindest durchwachsene Image verbessern zu wollen. Tatsächlich beschränkt es sich darauf, die Regeln der Konventionen der Mitarbeit, wie sie im Idealfall aussehen, in Form von zahlreichen Textauszügen aus der Online-Fassung zu dokumentieren, wobei dabei eine Diktion genutzt wird, wie sie der Reklame für Waschmittel entnommen sein könnte: »Wikipedia ist eine besondere Enzyklopädie« (S.9), »Wikipedia ist dynamisch« (S.10), »Wikipedia ist schnell« (S. ii), »Wikipedia ist transparent« (S. 12), »Wikipedia ist kollaborativ« (S.13), »Wikipedia macht Spaß« (S. 15), »Wikipedia ist frei« (S. 15). Von einem kritischen Grundansatz gegenüber der eigenen Arbeit keine Spur, aber das Werk versteht sich ganz offenbar auch als kostenpflichtige Werbebroschüre mit Gebrauchsanweisung dafür, wie man kostenlos mitarbeiten darf. Praktisch ist allerdings, dass die diversen Kommentare zu Regeln und Konventionen, Referenzen und Textgestaltung recht überschaubar auf rund 270 Seiten Text zusammengefasst sind. Im Großen und Ganzen aber fragt man sich, wer dieses Buch brauchen soll: es enthält nichts was nicht online zur Verfügung steht und nichts was für jemanden interessant ist, der kein leidenschaftlicher Wikipedianer ist. Zwar weist das Vorwort darauf hin, dass diese Informationen hier zum ersten Mal gedruckt erscheinen und damit bequem bei der Arbeit mit dem Rechner zum Nachschlagen dienen können, aber der Text liegt zugleich nochmals auf einer DVD-ROM bei. Worin der Sinn besteht, auf einem Datenträger einen Text beizufügen, den man mittels moderner Fenstertechnik auch jederzeit und bequem online lesen kann, wissen nur die Götter. Allerdings ist dieses Buch in Zusammenhang mit einer umfassenden Reklamemaschine zu sehen, die jener für den Schlagersänger Robbie Williams ähnelt: es vergeht kaum ein Tag an dem die Wikipedia nicht in den Medien erwähnt wird. Die Wikipedia wird zudem ganz offensichtlich für vollkommen sachfremde Zwecke missbraucht: Die Bekanntheit des Projekts sorgt dafür, dass Links in ihr den Pagerank in Suchmaschinen steigen lassen kann und dass persönliche Vorlieben, Idole und verquaste Ideologien weltweit sichtbar gemacht werden. Die Partnerschaft mit Suchmaschinen gehört zu den auffallendsten Marketingstrategien im Internet, da beide Seiten davon profitieren. Die Unsitte beispielsweise von Google, oder leider auch von Vivisimo, Links aus der Wikipedia automatisch hoch zu platzieren schafft eine ScheinSeriosität, die nur denjenigen auffällt, die über genügend Sachkenntnis verfügen, auch die auswertenden Suchmaschinen kritisch zu hinterfragen. Die Wikipedia dient nicht zuletzt Google, Yahoo und anderen dazu, sich von dem Image einer Käuflichkeit der Treffer zu reinigen und führt zudem bei vielen exotischeren Themen zu Links die auf den ersten Blick mehr Qualität versprechen als das berüchtigte: »Ersteigern oder sofort kaufen!« mit dem Google bei jedem beliebigen Thema auf Ebay verweist, den dritten Moloch des Internet-Mainstreams.
    Die Vermarktungsmaschinerie der Wikipedia arbeitet bewusst mit der Förderung eines Gemeinschaftsgefühls der Mitarbeiter. So sind die Wachstumsraten der regionalen Versionen der Wikipedia ein Indiz für ein solches Gemeinschaftsgefühl, welches allein aus dem Reiz großer Zahlen genügend Stoff für eine stetige Selbstrekrutierung neuer Anhänger gewinnt - wir leben in einem Zeitalter geschickten Marketings entbehrlicher Inhalte. An der Tatsache, dass die Artikel nur Momentaufnahmen darstellen, die praktisch nie zitierfähig sind, ändert dies nichts. Das, was bei Britannica und Co. ein Nachteil ist, wird bei der Wikipedia ins gegenteilige Extrem verkehrt. So ergibt sich der praktische Wert der Wikipedia daraus, dass man sich grob über ein vollkommen unbekanntes Thema informieren und dann eruieren kann, welches Fachlexikon eventuell für eine genaue Information geeignet wäre. Für zuverlässige Fakten ist sie vielfach unbrauchbar. Letztlich muss man ein Lexikon an seinen schlechten Einträgen messen. Ein ernstes Problem ist bei der Wikipedia das Phänomen der »edit wars« - im Schnitt wird jeder Artikel zehnmal geändert, bisweilen in sich gegenseitig ausschließenden Richtungen, und es ist nicht selten, dass ein neuer Forschungsstand mit einem 30 Jahre alten überschrieben wird. Allerdings führt dies mitunter zu fruchtbaren Diskussionen und einer Gegenüberstellung von neuem und altem Forschungsstand, was mehr ist als eine klassische Enzyklopädie bietet. Bisweilen werden umkämpfte Artikel gesperrt. So steht das Projekt vor dem Problem, einen gesicherten Forschungsstand kenntlich zu machen, der zitierfähig wäre. Auffallend ist die Bildung von regelrechten Bearbeiterkartellen, die als Wiki-Darwinismus bezeichnet werden können.
    KAB
    A 010
  8. Lexikon der Neurowissenschaft (2002) 0.07
    0.06842975 = product of:
      0.1368595 = sum of:
        0.10416682 = weight(_text_:lexikon in 567) [ClassicSimilarity], result of:
          0.10416682 = score(doc=567,freq=2.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.346236 = fieldWeight in 567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.0390625 = fieldNorm(doc=567)
        0.032692686 = weight(_text_:von in 567) [ClassicSimilarity], result of:
          0.032692686 = score(doc=567,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.25527787 = fieldWeight in 567, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=567)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Gehirn und Geist. 2002, H.1, S.97 (B. Gähwiler); FR Nr.105 vom 7.5.2002, S.18: "Vietnamkriegsveteranen mit Traumatisierungen weisen nicht nur teils schwere Auffälligkeiten in Verhalten, Erleben und Affekten auf. Erst seit kurzem weiß man, dass solche Psychotraumatisierungen auch zu biologischen Veränderungen im Gehirn führen können. Der alte Traum des Begründers der Psychoanalyse, Sigmund Freud, zu einer Vereinheitlichung von Neurologie und Psychologie zu kommen, klingt damit an: Das menschliche Gehirn ist keineswegs einer Computerfestplatte gleich, die einmal installiert, nur noch mit der Verarbeitung von Informationen und Speicherungen von Programmen beschäftigt ist. Das Beispiel der Kriegsveteranen zeigt: Auch unsere Hardware verändert sich lebenslang, sie steht sogar in ständiger Interaktion mit Informationen, Umgebungseinflüssen und den Gefühlen, die im Gehirn ausgelöst werden. Zeit also, die verschiedenen Disziplinen, die sich mit menschlichem Verhalten, Informationsverarbeitung, psychischen und organischen Erkrankungen beschäftigen, zu vernetzen. Das explodierende Wissen der Disziplinen wie Neurologie, Neurobiologie, Neuropsychologie wird erstmals und umfassend in einem lexikalischen Werk dargestellt. Der Brückenschlag zwischen den Disziplinen ist gelungen, die Darstellung anschaulich und mit zahlreichen Graphiken und Bildtafeln versehen. Und wie bei jedem guten Nachschlagewerk gilt auch hier: Man liest sich fest und vergisst dabei den Begriff, den man eigentlich nachlesen wollte." (M. Hilgers)
  9. Hauser, T.; Wenz, C.: Mambo : das Open-source-CMS einsetzen und erweitern (2006) 0.06
    0.064342186 = product of:
      0.12868437 = sum of:
        0.039231222 = weight(_text_:von in 1555) [ClassicSimilarity], result of:
          0.039231222 = score(doc=1555,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.30633342 = fieldWeight in 1555, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.08945315 = product of:
          0.13417973 = sum of:
            0.005983086 = weight(_text_:a in 1555) [ClassicSimilarity], result of:
              0.005983086 = score(doc=1555,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10809815 = fieldWeight in 1555, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1555)
            0.12819664 = weight(_text_:z in 1555) [ClassicSimilarity], result of:
              0.12819664 = score(doc=1555,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.5003731 = fieldWeight in 1555, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1555)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Mambo ist nach Typo3 das am meisten verbreitete Content Management System (CMS) auf Open Source-Basis. Dieses Buch zeigt, wie man eigene Mambo-basierte Websites erstellt. Fortgeschrittene Nutzer lernen, Websites den eigenen Bedürfnissen entsprechend anzupassen und zu erweitern. Das Buch enthält wertvolle Infos über weitere Projekte im Mambo-Umfeld. Teil 1: CMS-Grundlagen allgemein und mit Mambo Von der Installation über die Konfiguration bis hin zur Verwaltung eines Basissystems, Einrichten von Websites, Verwaltung der Mambo-Benutzer. Teil 2: Anpassung des Mambo-Systems an eigene Bedürfnisse Themen sind hier u.a. die Entwicklung eigener Layouts, das Einbinden von Modulen, die Erstellung mehrsprachiger Websites...
    Classification
    ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
    RVK
    ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
  10. Hedden, H.: Indexing specialities : Web Sites (2007) 0.06
    0.055675175 = product of:
      0.11135035 = sum of:
        0.04237456 = weight(_text_:von in 1146) [ClassicSimilarity], result of:
          0.04237456 = score(doc=1146,freq=28.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3308779 = fieldWeight in 1146, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.06897579 = product of:
          0.10346369 = sum of:
            0.0021153404 = weight(_text_:a in 1146) [ClassicSimilarity], result of:
              0.0021153404 = score(doc=1146,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.03821847 = fieldWeight in 1146, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1146)
            0.10134835 = weight(_text_:z in 1146) [ClassicSimilarity], result of:
              0.10134835 = score(doc=1146,freq=10.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.3955797 = fieldWeight in 1146, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1146)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: IWP 60(2009) H.4, S.245 (J. Fassbender): "Heather Heddens Buch über Website-Indexing gehört zur Indexing Specialties-Serie, die vom Information Today-Verlag in Zusammenarbeit mit der American Society of Indexers herausgegeben wird. Der Bereich Website-Indexing befasst sich mit der Index-Erstellung und -Pflege für Websites und Intranets - ähnlich zu Registern für Printpublikationen. Ein Website-Index hat oft die Bezeichnung Site Index oder A-Z Index und sollte zudem nicht mit Site Maps verwechselt werden. Das Buch füllt gerade auch hierzulande eine Riesenlücke aus: Nach Einschätzung des Deutschen Netzwerks der Indexer (DNI) ist das Wissensdefizit über Website-Indexing in der deutschen Web- und IT-Szene enorm. Die Autorin beginnt in diesem Sinne auch gleich mit zwei Kernaussagen des Buches: 1. Website-Indexing sei deshalb in der Web-Szene nicht so verbreitet, weil die Kenntnisse der Methoden zur Index-Erstellung fehlen und/oder die nötigen Tools unbekannt sind. 2. Ein guter Index stelle für viele Sites die effektivste Suchmethode dar - trotz der Konkurrenz zu Navigationsmenüs und Sucheingabe. Verdeutlicht werden sodann die Unterschiede zu Print-Registern, der bedeutendste betrifft die Locators (Fundstellen), die in der Regel keine Seitenangaben, sondern Links sind.
    Ein Kapitel über HTML-Grundlagen ist für diejenigen Indexer gedacht, die sich in diesem Bereich bisher nicht oder wenig auskennen. Ein weiteres Kapitel verdeutlicht die HTML-Tags, die speziell für die Website-Index-Erstellung von Bedeutung sind. Die Erläuterungen zu Cascading Style Sheets (CSS) ist ausreichend, aber etwas knapp; hier wären einige CSS-Techniken für Fortgeschrittene von Interesse gewesen. Auf die Möglichkeiten von Konvertierungs-Tools (wie HTML/Prep), mit denen Dokumente ins HTML-Format umgewandelt werden können, sowie von Online Help Authoring Tools wird ebenfalls eingegangen. Sie bilden eine gute Ergänzung zu den indexspezifischen HTML-Erläuterungen. Das Thema XML ist bewusst ausgeschlossen worden, um sich vom Fokus des Buches nicht zu weit zu entfernen. Dennoch hätte man sich als Leser zumindest ein paar grundsätzliche Erläuterungen im Kontext zum Website-Indexing gewünscht. Ein Kapitel über Dedicated-IndexingSoftware behandelt deren Möglichkeiten einer Index-Erstellung für Websites. Die Autorin argumentiert überzeugend, dass die großen Vorteile dieser von Indexern weltweit am meisten eingesetzten Software deren mächtige Möglichkeiten zur Erstellung, Bearbeitung, Veränderung und Kontrolle von Index-Einträgen sind, was einer hohen Index-Qualität zugute kommt. Die HTML-Ausgabe-Optionen dieser Software-Art sind allerdings etwas eingeschränkter, so dass der Output oft einer Nachbearbeitung bedarf. Es folgen zwei Kapitel über spezielle Website-Indexing-Software. XRefHT (gesprochen: Shreft) ist eine Freeware, die von Prof. Timothy Craven (University of Western Ontario) entwickelt wurde. HTML Indexer ist eine kommerziell erhältliche Software. Detailliert erläutert werden, welche Elemente von Web-Seiten von den beiden Programmen für Index-Einträge berücksichtigt werden, wie Index-Einträge und Querverweise erstellt und bearbeitet und wie die Register aktualisiert werden können.
    Zwei Kapitel behandeln die Vorgehensweise bei der Index-Erstellung sowie die vielfältigen Aspekte der Index-Gestaltung. Anhand vieler Beispiele werden die Besonderheiten, aber auch Parallelen zu Printregistern beleuchtet, z. B. bestehende und neu einzufügende Anker, Berücksichtigung verschiedener Seiten-Arten und -Formate, Umgang mit mehreren Locatorn pro Eintrag, Navigation innerhalb des Site Indexes. Das Schlusskapitel widmet sich den Business-Aspekten des Website-Indexing, auch aus Freelancer-Sicht. Erläutert werden z. B., welche Arten von Websites in Frage kommen und wie die Fortführung der Indexierung berücksichtigt wird. Der Index des Buches ist insgesamt von guter Qualität, wie man es von den Indexing-Büchern des Information Today-Verlages gewöhnt ist - ja sogar von exzellenter Qualität im Vergleich zu vielen unzureichenden Registern deutschsprachiger Fachbücher. Mit fünf Prozent Umfang im Verhältnis zur Anzahl der inhaltlichen Seiten hat der Index eine gute Standardlänge. Wesentliche Indexierungstechniken, wie Untereinträge, siehe- und siehe auch-Querverweise, vollständige Seitenbereichsangaben (d. h. ohne die wenig hilfreichen ff.-Angaben) kommen zum Einsatz. Einige Untereinträge tauchen allerdings nicht auch als Haupteintrag auf; so findet man z. B. "indexing rates" nur als Untereintrag des Haupteintrages "Business and index market". Die typographische und satztechnische Qualität des Registers ist ebenfalls gut, z. B. unterschiedliche Einrückungen von Untereinträgen und deren Zeilenumbrüchen. Insgesamt gesehen ist Indexing Specialties: Web Sites ein sehr empfehlenswertes Buch, das ein wichtiges (und bisher vernachlässigtes) Thema abdeckt."
  11. Thesaurus der exakten Wissenschaften : Unter Mitarb. von Charles Auffray u.a (2001) 0.05
    0.054484606 = product of:
      0.10896921 = sum of:
        0.07365707 = weight(_text_:lexikon in 2414) [ClassicSimilarity], result of:
          0.07365707 = score(doc=2414,freq=4.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.24482584 = fieldWeight in 2414, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2414)
        0.035312135 = weight(_text_:von in 2414) [ClassicSimilarity], result of:
          0.035312135 = score(doc=2414,freq=28.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2757316 = fieldWeight in 2414, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2414)
      0.5 = coord(2/4)
    
    Abstract
    Wissen, Wissenschaft, Wissensmacht. Das Informationszeitalter blickt misstrauisch und -mutig, aber immer noch mit Respekt, mit Ehrfurcht, auf die Jahrhunderte hinter uns zurück: in denen es eine Einheit gab von Wissen, Reflexion und Handeln. Heute ist Information alles, aber was kann da Wissen noch sein? Vor drei Jahren haben Michel Serres. und Nayla Farouki mit ihren Kollegen eine praktische Antwort versucht - einen "Thesaurus der exakten Wissenschaften", der nun auf Deutsch vorliegt. Ein Thesaurus, eine Schatzkammer also. Jener Ort, in einem Heiligtum, wo ein Schatz gehütet wurde. Der Schatz des Wissens, der exakten Wissenschaften genau gesagt, umfasst Astrophysik, Biochemie, Chemie, Genetik, Geowissenschaften, Informatik, Mathematik und Physik. Was ist dieses Wissen und wie kann es sich darstellen: "Jorge Luis Borges erzählt eine wunderbare Geschichte, in der berichtet wird, hier und da seien auf der Welt noch die Reste einer im Maßstab 1:1 angefertigten Weltkarte zu besichtigen ... Im Extremfall stößt die Geometrie auf den leeren, glatten homogenen, transparenten Raum oder das Fraktal verliert sich in seien sich endlos auffächernden Singularitaten. Das sind die beiden Grenzen, die die unüberbrückbare, widersprüchliche Kluft zwischen Realem und Formalem markieren. Welt und platonische Vernunft behalten wir immer beide zugleich in den Augen. Freilich nicht ohne zu schielen." Dieser Strabismus ist der schönste Effekt des gewaltigen Buches von Serres / Farouki, gerade richtig für ein Werk, in dem sich Hypertrophie und Bescheidenheit paaren. Das Wissen der Welt noch einmal zwischen zwei Buchdeckeln zu sammeln - was könnte absurder, verführerischer, beunruhigender sein. "Wir suchen nach dem Wissen nicht mehr wie nach einer einsamen Insel im unermesslichen Meer des Nichtwissens. Unser Streben gilt vielmehr einem besonderen, ausgewählten, bestätigten Wissen im Meer der Erkenntnis, einem 'Schatz' in der unförmigen Masse des Wissens. Hier ist er beschrieben, dieser 'Schatz', dieser Thesaurus, und doch auch immer wieder in Frage gestellt von Autoren, die sich als Forscher verstehen, dem Leser aber kaum voraus sind. Kein Buch für den wissenschaftlichen Zirkel - der circulus vitiosus zwischen Lesern und Autoren hat seit vielen Jahren seine Kraft verloren. Das ThesaurusProjekt, das klingt wie ein Roman von Robert Ludlum, dem großen Spannungsautor, der vor wenigen Tagen gestorben ist. ... von einem exakten Thriller - die reine Neugier ist der Antrieb, beim Leser, bei den Schreibenden. Das Buch spannt ein Netz des Wissens auf - aber mit den nervösen Internet-Link-Geschichten, von denen heute vollmundig die Rede ist, hat es nichts zu tun. Das Buch beansprucht Dauer, auch wenn es sich im Moment seines Erscheinens bereits als überholt erweisen könnte. Es ist modern, weil. es sich den Postulaten der Moderne widersetzt, nimmt Zeitlosigkeit in Anspruch für sich, wenigstens für einen Augenblick. Serres hat sich in seiner Arbeit von Anfang an auf Borges und Jules Verne berufen - beide hätten sich für die neuen Kommunikationsmedien sicher aufgeschlossen gezeigt. Im Moment engagiert Serres selbst sich für die Möglichkeiten der Wissenschaft im E-Book-Bereich. Enzyklopädie, Wissensbilanz ... Die meisten der Artikel des Thesaurus haben keinen einzelnen Autor, sind von zwei, drei, manchmal von allen Mitarbeitern verfasst worden. Das erklärt ihre nüchterne Zurückhaltung - die immer wieder aber in einen magischen Surrealismus umschlägt. Der Roman des Jahrhunderts, auch dies ein Fazit des Thesaurus, wird also nicht von den Literaten geschrieben, sondern wahrscheinlich von den Wissenschaftlern. "Das Ganze erzählt sich anders als die Summe aller Unterschiede. Jede einzelne Wissenschaft deduziert, experimentiert und räsonniert in ihrem eigentümlichen Dialekt, die Umgangsspraehe erzählt die Wissenschaft. Die Erzählung vervollständigt die Wissensbereiche. Wie zur Entlastung Körperfunktionen oder seelische Fähigkeiten auf äußere Objekte ausgelagert werden, um für Neues gewappnet zu sein, so werden die Konzepte der Wissenschaft in dieser Erzählung oder diesem Lexikon deponiert und befreien den Forscher, entlasten uns alle, damit sie und wir uns neuen Anschauungen zuwenden können ... Einst stand die Wissenschaft in förmlichem Gegensatz zu den Erzählungen, heute übernimmt die Erkenntnis deren Form." Wissen, Wissenschaft, Wissensdurst. Das Buch ist auf merkwürdige Weise anachronistisch, und am Ende durch und durch moralisch - wie jede Moderne moralisch ist. Wissen verpflichtet, so finden wir am Ende der Einleitung eine Art hippokratischen Eid
    Footnote
    Rez. in: Spektrum der Wissenschaft 2001, H.9, S.95 (C. Pöppe: "Ein Mammutprojekt einer Gruppe französischer Wissenschaftler ist zu einem bewundernswerten Werk gediehen. "Le Tresor. Dictionnaire des Sciences", im Original 1997 erschienen, ist kein Lexikon im üblichen Sinne. Es beschränkt sich ausdrücklich auf Grundkonzepte der Wissenschaften und erläutert diese in langen, inhaltsreichen Artikeln. Das Bemühen der Autoren um verständliche Sprache und die Kommentare vieler Probeleser haben prachtvolle Früchte getragen; Übersetzer und Bearbeiter haben sie wohlbehalten in die deutsche Sprache transportiert. Dass die Helden dieser Wissenschaftsgeschichte in ihrer großen Mehrheit Franzosen sind - wen stört's? Persönliche Vorlieben der Autoren schlagen - unvermeidlich - aufs Endergebnis durch. Die Mathematik nimmt, ihrer Bedeutung und der landesüblichen Wertschätzung entsprechend, breiten Raum ein. Die Autoren scheuen sich nicht, einen mathematischen Begriff wie "Linearität" in drei Stufen einzuführen: sehr erdnah und dann in zwei Abstraktions- und Verallgemeinerungsschritten. So kommen auch militante Formelhasser wenigstens in den Genuss eines oder zweier Absätze. Der Chemiker fühlt sich zu Höherem berufen - und rutscht gelegentlich aus: Der Artikel "Chemie" kippt nach wundervoll anwendungsbezogenem Beginn ("Silber putzen") in pseudophilosophisches Geschwätz ab, erholt sich allerdings wieder. Lassen Sie sich bloß nicht von der 40-seitigen Einleitung des Herausgebers Michel Serres abschrecken! Den verschlungenen und zweifellos hochgeistigen Ausführungen zum Trotz ist die Benutzung des Werkes ganz einfach: Es genügt, das Alphabet zu beherrschen.")
    Issue
    Aus dem Französischen von Michael Bischoff und Ulrike Bischoff.
  12. Dewdney, A.K.: Reise in das Innere der Mathematik (2000) 0.05
    0.051485084 = product of:
      0.10297017 = sum of:
        0.04530031 = weight(_text_:von in 4727) [ClassicSimilarity], result of:
          0.04530031 = score(doc=4727,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.35372335 = fieldWeight in 4727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.09375 = fieldNorm(doc=4727)
        0.057669856 = product of:
          0.08650478 = sum of:
            0.008461362 = weight(_text_:a in 4727) [ClassicSimilarity], result of:
              0.008461362 = score(doc=4727,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 4727, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4727)
            0.078043416 = weight(_text_:22 in 4727) [ClassicSimilarity], result of:
              0.078043416 = score(doc=4727,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.46428138 = fieldWeight in 4727, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4727)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Content
    Einheitssacht.: A mathematical mystery tour
    Date
    19. 7.2002 22:04:42
    Issue
    Aus dem Amerikan. von Michael Zillgitt.
  13. ¬Der Brockhaus Naturwissenschaft und Technik (2002) 0.05
    0.050110135 = product of:
      0.10022027 = sum of:
        0.026425181 = weight(_text_:von in 597) [ClassicSimilarity], result of:
          0.026425181 = score(doc=597,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.20633863 = fieldWeight in 597, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=597)
        0.07379509 = product of:
          0.11069263 = sum of:
            0.004935794 = weight(_text_:a in 597) [ClassicSimilarity], result of:
              0.004935794 = score(doc=597,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 597, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=597)
            0.105756834 = weight(_text_:z in 597) [ClassicSimilarity], result of:
              0.105756834 = score(doc=597,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.41278675 = fieldWeight in 597, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=597)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Dieses neue, umfassende und verständlich formulierte Nachschlagewerk von A bis Z entstand als Koproduktion der renommierten Wissenschaftsund Lexikonverlage Brockhaus Verlag und Spektrum Akademischer Verlag. Hier finden Lehrer, Wissenschaftler und Fachleute, aber auch interessierte Laien, Schüler und Studenten alles, um sich einen Einblick in Grundlagen und neueste Entwicklungen zu verschaffen. - Umfassende und verständliche Darstellung der Fachbegriffe aus Naturwissenschaft und Technik - Rund 20.000 Artikel mit 45.000 Stichwörtern - Übersichtliches, modernes durchgehend vierfarbiges Seitenlayout - Rund 3.000 Abbildungen und ca. 350 Tabellen - 75 Essays zu speziellen Themenbereichen - Auch als Medienpaket erhältlich mit CD-ROM und Zugangsberechtigung zum Internetportal: Zugriff auf die komplette Substanz, aktuelle Nachrichten, vertiefende Zusatzinformationen und weiterführende Weblinks.
  14. ¬Die Macht der Suchmaschinen (2007) 0.05
    0.046753652 = product of:
      0.093507305 = sum of:
        0.04936487 = weight(_text_:von in 1813) [ClassicSimilarity], result of:
          0.04936487 = score(doc=1813,freq=38.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3854611 = fieldWeight in 1813, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1813)
        0.04414244 = product of:
          0.06621366 = sum of:
            0.0021153404 = weight(_text_:a in 1813) [ClassicSimilarity], result of:
              0.0021153404 = score(doc=1813,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.03821847 = fieldWeight in 1813, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1813)
            0.06409832 = weight(_text_:z in 1813) [ClassicSimilarity], result of:
              0.06409832 = score(doc=1813,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.25018656 = fieldWeight in 1813, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1813)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Suchmaschinen sind der wichtigste Zugangsweg zum Auffinden neuer Netzinhalte. Insgesamt verwendeten nach einer repräsentativen Studie im dritten Quartal 2005 fast 85 Prozent der deutschen Internetnutzer Suchmaschinen. Diese sind inzwischen auch ein Big Business: Gemessen am Börsenwert ist die Suchmaschine Google mit einem Gesamtwert von 80 Mrd. Dollar das wertvollste Medienunternehmen der Welt. Der Konzerngewinn stieg von 2004 auf 2005 um 367 Prozent auf 1,5 Mrd. Dollar. Als Gatekeeper im Internet stellen die Suchmaschinen eine zentrale Herausforderung für Wissenschaft und Forschung dar - letztlich geht es um die Frage der "digitalen Informationsmacht". Mit diesem Band liegt erstmals eine Publikation vor, die die Rolle von Suchmaschinen in der Informationsgesellschaft in den wichtigsten Dimensionen aus verschiedenen Perspektiven wissenschaftlich beleuchtet und dabei hilft, die künftige Suchmaschinenforschung zu systematisieren.
    Classification
    Z 731
    Content
    Der Band geht auf die internationale Tagung Die wachsende Macht von Suchmaschinen im Internet: Auswirkungen auf User, Medienpolitik und Medienbusiness bestehend aus einem interdisziplinären wissenschaftlichen Workshop am 26. Juni 2006 und einer Publikumskonferenz am 27. Juni 2006 in Berlin zurück, die vom Lehrstuhl für Journalistik II der Universität Leitung und dem Lehrstuhl für Internationalen Journalismus der UniversitSt Dortmund in Kooperation mit der Friedrich-Ebert-Stiftung, Bereich Medien und Politik, veranstaltet worden ist. In drei Kapiteln werden die zentralen Forschungsfelder aufgegriffen: Das erste Kapitel behandelt die wichtigsten Aspekte im Bereich der Suchmaschinenregulierung und -ökonomie. Es werden Herausforderungen transparent gemacht, die sich gegenwärtig in der Entwicklung befindlichen Regulierungsstrukturen analysiert und Lösungswege erarbeitet. Das zweite Kapitel beschäftigt sich, zum ersten Mal in Form einer Publikation, mit dem Verhältnis von Suchmaschinen und Journalismus. Dabei ist die Frage, inwieweit Suchmaschinen einerseits journalistische Funktionen übernehmen und andererseits Journalisten als Rechercheinstrument dienen und wie sich hierdurch das Gefüge des bisherigen Massenkommunikationssystems verändert, von entscheidender Bedeutung.
    Im dritten Kapitel werden die Qualität von Suchmaschinen und das Nutzerverhalten näher beleuchtet. Erkenntnisse über die Güte von Suchmaschinen sind von großer Relevanz, um deren Rolle bei der Informationsvermittlung in einer Gesellschaft angemessen beurteilen zu können. Der Band liefert hier neue Ansätze und Vorschläge, da die Frage nach der Qualität von Suchmaschinen noch nicht ausreichend beantwortet worden ist. Zum anderen ist die Analyse des Nutzerverhaltens grundlegend, um Schlussfolgerungen für die Medienkompetenz als zentrale Schlüsselqualifikation im Informationszeitalter ziehen zu können. Unter den Autoren sind viele der international führende Experten auf dem Gebiet Suchmaschinen, darunter Wissenschaftler der Universitäten Harvard, Yale und Columbia sowie der London School of Economics und der Pariser Sorbonne. Darüber hinaus wurden auch Beiträge von Praktikern, allesamt leitende Redakteure oder Verantwortliche in Medienunternehmen aufgenommen, um deren Erkenntnisse für die Thematik fruchtbar zu machen. Der Band richtet sich neben der Wissenschaft auch an die Praxis, vor allem die Medienaufsicht und -ökonomie sowie an den Journalismus. Er bietet aber auch der allgemein interessierten Öffentlichkeit einen fundierten Einblick in die bisher wenig erforschte Welt der Suchmaschinen.
    MARCEL MACHILL / MARKUS BEILER / MARTIN ZENKER: Suchmaschinenforschung. Überblick und Systematisierung eines interdisziplinären Forschungsfeldes TEIL 1: SUCHMASCHINENREGULIERUNG UND -ÖKONOMIE URS GASSER / JAMES THURMAN: Themen und Herausforderungen der Regulierung von Suchmaschinen NORBERT SCHNEIDER: Die Notwendigkeit der Suchmaschinenregulierung aus Sicht eines Regulierers WOLFGANG SCHULZ / THORSTEN HELD: Der Index auf dem Index? Selbstzensur und Zensur bei Suchmaschinen BORIS ROTENBERG: Towards Personalised Search: EU Data Protection Law and its Implications for Media Pluralism ELIZABETH VAN COUVERING: The Economy of Navigation: Search Engines, Search Optimisation and Search Results THEO RÖHLE: Machtkonzepte in der Suchmaschinenforschung TEIL 2: SUCHMASCHINEN UND JOURNALISMUS VINZENZ WYSS / GUIDO KEEL: Google als Trojanisches Pferd? Konsequenzen der Internet-Recherche von Journalisten für die journalistische Qualität NIC NEWMAN: Search Strategies and Activities of BBC News Interactive JÖRG SADROZINSKI: Suchmaschinen und öffentlich-rechtlicher Onlinejournalismus am Beispiel tagesschau.de HELMUT MARTIN-JUNG: Suchmaschinen und Qualitätsjournalismus PHILIP GRAF DÖNHOFF / CHRISTIAN BARTELS: Online-Recherche bei NETZEITUNG.DE SUSAN KEITH: Searching for News Headlines: Connections between Unresolved Hyperlinking Issues and a New Battle over Copyright Online AXEL BUNDENTHAL: Suchmaschinen als Herausforderung für Archive und Dokumentationsbereiche am Beispiel des ZDF BENJAMIN PETERS: The Search Engine Democracy: Metaphors and Muhammad
    TEIL 3: QUALITÄT VON SUCHMASCHINEN UND NUTZERVERHALTEN] DIRK LEWANDOWSKI: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? BENJAMIN EDELMAN: Assessing and Improving the Safety of Internet Search Engines HENDRIK SPECK / FREDERIC PHILIPP THIELE: Playing the Search Engines or Hacking the Box: Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google NATALIE KINK / THOMAS HESS: Suchmaschinen als Substitut traditioneller Medien? Erste Ergebnisse einer Studie zum Wandel der Informationsbeschaffung durch Suchmaschinen DIVINA FRAU-MEIGS: Minding the Gatekeepers: Search Engines for Young People, and the Regulatory Riddle of Harmful Content an Environmental Cognition Perspective MARCEL MACHILL / MARKUS BEILER / ULRIKE NEUMANN: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. Ein Experiment am Beispiel von Google Scholar
    KAB
    Z 731
  15. Schlosser, H.-D.: Lexikon der Unwörter (2000) 0.05
    0.04510556 = product of:
      0.18042225 = sum of:
        0.18042225 = weight(_text_:lexikon in 2146) [ClassicSimilarity], result of:
          0.18042225 = score(doc=2146,freq=6.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.59969836 = fieldWeight in 2146, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2146)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Lexikon dokumentiert kritikwürdige Wörter und Formulierungen, die bei der exemplarischen Wahl einiger weniger aktueller Jahres-Unwörter seit 1991 nicht zum Zuge kommen konnten. Und es sind auch schon lange vor der Unwort-Aktion immer wieder einzelne Wörter und Wendungen gebraucht worden, die besser nicht ins öffentliche Sprachleben gelangt wären. Der Missbrauch der Sprache mit dem Ziel, Menschen hinters Licht zu führen oder zu verletzen, lässt sich im Rahmen der deutschen Sprachgeschichte weit zurückverfolgen. Der Autor hat sich bei der Auswahl der Stichwörter vorgestellt, welche Wörter oder Formuherungen in früheren Zeiten hätten kritisiert werden müssen, wenn es die Unwort-Aktion schon vor 1991 gegeben hätte. Manches davon ist inzwischen historisch geworden und hat seine Aktualität verloren. Aber es hat zu seiner Zeit die öffentliche Kommunikation, das Denken und Handeln gleichfalls belastet und nicht selten sogar extrem negativ beeinflusst. Die hier vorgestellten Unwörter entstammen weit überwiegend dem 20. Jahrhundert. Das könnte den Eindruck erwecken, es ginge mit der Sprache immer schneller bergab. Diesem Vorurteil sollte man als Sprachkritiker auf keinen Fall erliegen. Denn immer noch können die meisten Äußerungen als sachlich angemessen, ehrlich und menschenfreundlich bewertet werden. Dass die Menschen in früheren Jahrhunderten sprachlich keineswegs rücksichtsvoller miteinander umgegangen sind, dass sogar manches, was man für aktuell halten möchte, schon sehr viel älteren Ursprungs ist, können einzelne Belege bezeugen, die teilweise sehr weit vor 1900 datiert werden müssen.
    Imprint
    Gütersloh : Bertelsmann-Lexikon-Verlag
  16. Wissen, D.: Zukunft der Bibliographie - Bibliographie der Zukunft : eine Expertenbefragung mittels Delphi-Technik in Archiven und Bibliotheken in Deutschland, Österreich und der Schweiz ; vom Schriftenverzeichnis zum Informationsraum ; die Entwicklung bibliographischer Informationen, hin zu mediographischen Daten für die germanistische Applikation bei Literaturportalen wie beispielsweise einer Mediographie bzw. Wikigraphie (2008) 0.04
    0.043697774 = product of:
      0.08739555 = sum of:
        0.05208341 = weight(_text_:lexikon in 2487) [ClassicSimilarity], result of:
          0.05208341 = score(doc=2487,freq=2.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.173118 = fieldWeight in 2487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2487)
        0.035312135 = weight(_text_:von in 2487) [ClassicSimilarity], result of:
          0.035312135 = score(doc=2487,freq=28.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2757316 = fieldWeight in 2487, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2487)
      0.5 = coord(2/4)
    
    Abstract
    Für die hier vorliegende Studie wurden 40 Führungspersönlichkeiten bedeutender Archive und Bibliotheken nach der zukünftigen Entwicklung der Bibliographie befragt. Die Erhebung zu dieser Studie wurde innerhalb eines Jahres zwischen 2005 und 2006 in vier Runden nach der Delphi- Technik in Deutschland, Österreich und der Schweiz durchgeführt. Durch ein Interview, das Fragen aus betrieblichen, gesellschaftlichen und wissenschaftlichen Bereichen beinhaltete, wurden Prognosen ermittelt, die in drei weiteren Befragungsrunden nochmals mittels dargestellter Szenarien hinterfragt wurden. Erkundet wurde durch diese fokussierende Untersuchung die Entwicklung der bibliographischen Information -- vom Schriftenverzeichnis zum Informationsraum -- für die germanistische Applikation. Ziel dieser Studie ist es, anhand der Prognosen von Experten zu klären, ob Bibliographien in Zeiten "Digitaler", "Elektronischer" bzw. "Virtueller Bibliotheken" auch zukünftig einem zeitgemäßen Anspruch in Hinblick auf Informationsbedarf, -nutzen und -wert genügen können und wie sich deren Zukunft gestalten wird. In Form eines Realisierungskonzepts wird im Anschluss an die Erhebungsanalyse beschrieben, wie sich den Experten zufolge bibliographische Daten in einem Prozess, hin zu mediographischen Informationen, befinden. Verdeutlicht wird die Zukunft der Bibliographien in Form von Literaturportalen bzw. Informationsräumen, die möglicherweise die Gestalt einer Mediographie oder Wikigraphie annehmen werden. Wie diese Verzeichnisse konzipiert sein sollten, wird auf Grund der Befragungsergebnisse analysiert und interpretiert und als Szenarienvarianten durch ein theoretisches Modell beschrieben.
    Classification
    AN 96100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Herstellung von Bibliographien und Informationsdiensten
    Footnote
    Zugl.: Wien, Univ., Diss., 2007. - Rez. in: ZfBB 55(2008) H.6, S.360-361 (L. Heller): "Was grenzt eine Bibliographie von einem Bibliothekskatalog oder auch einem Literaturverzeichnis ab? Welche Gegenstände, Personen(gruppen) und Räume sind lohnende Objekte einer jeweils eigenständigen und möglichst umfassenden bibliographischen Erschließung? Wie kann eine solche Erschließung für die Literatursuchenden wirklich nützlich sein? - Fragen wie diese zeigen, wie groß und wie schwer zu fassen das Konzept »Bibliographie« bisher schon immerwar. Wie viel komplexer und anspruchsvoller das Bereitstellen einer zeitgemäßen, nützlichen bibliographischen Dienstleistung im Internetzeitalter ist, hat sich der Bibliothekar Dirk Wissen in seinem Buch »Zukunft der Bibliographie - Bibliographie der Zukunft« gefragt. Es dürfte sich um eine der ersten deutschsprachigen Dissertationsschriften handeln, die explizit den Themenbereich »Bibliothek 2.0« und »Archiv 2.0« behandeln. Diese beiden Stichworte spielen auf das »Web 2.0« an, einen Begriff, mit dem der Computer-Buchverleger Tim O'Reilly 2005 eine grobe begriffliche Zusammenfassung neuerer, partizipativer Entwicklungen im Internet, wie beispielsweise das freie Online-Lexikon Wikipedia, prägte. Wissen versucht, anhand von Einschätzungen und Erwartungen der Leiter einiger bedeutender Archive, Bibliotheken und Informationseinrichtungen im deutschen Sprachraum herauszufinden, wie bibliographische Dienstleistungen der nahen Zukunft aussehen könnten. Kommerzielle Unternehmen sind dabei nur mit einer Institution vertreten, dem ekz, während traditionelle Universitätsbibliotheken recht zahlreich repräsentiert sind. Akkurat und nachvollziehbar führte der Autor über mehrere Runden Interviews mit diesem Personenkreis durch, legt den Befragten Thesen vor und lässt sie diese bewerten.
    In dieser so genannten Delphi-Studie kristallisiert sich der Wunsch nach einem Web-Portal heraus, das Eigenschaften heutiger bibliographischer Datenbankangebote mit Eigenschaften des Web 2.0 ergänzt. Bis ungefähr 2015 soll den Befragungs-Ergebnissen zufolge ein von mehreren Einrichtungen als »Wikigraphie« oder »Mediographie« kooperativ betriebenes Literaturportal entstehen können. Die Betonung liegt dabei auf »können« - Wissen legt wert darauf, weder die Befragten über alternative Szenarien entscheiden zu lassen, noch eine Prognose zu treffen. Vielmehr habe sein Szenario einen >orientierendem Charakter. Das Szenario einer Mediographie stehe dabei für die Integration von bibliographischer Information und dem Vollzugriff auf die (textuellen und nicht-textuellen) Medieninhalte. Wikigraphie meint eine »Schicht« der Benutzerinteraktion eines Portals, das eine unter ökonomischen und qualitativen Aspekten wünschenswerte Anreicherung qualitätsgesicherter Stammdaten< durch Benutzer erlaubt. Nun weckt der Begriff »Portal« unweigerlich Assoziationen an Vorstellungen zentralisierter Informationsverzeichnisse im Web, wie sie in den 90er-Jahren verbreitet waren. Dem Autor der Studie kann man das nur bedingt zum Vorwurf machen. Er erfüllt lediglich die selbstgestellte Aufgabe, aus den Aussagen der deutschen Bibliotheks-Entscheiderderen Vorstellung von einer »Zukunft der Bibliographie« zu destillieren. Es überrascht kaum, dass sich diese Vorstellung vom in der Fachöffentlichkeit vorherrschenden Bild der Bibliothek 2.0 unterscheidet - denn dort wird die Bearbeitung dieses Themas gern einer ganz anderen Generation überlassen, sozusagen den »jungen Wilden« des Bibliothekswesens.
    Bedauerliche Auslassungen Dennoch ist es bedauerlich, dass in den 2005 und 2006 stattgefundenen Befragungs-Runden gleich mehrere Ansätze außen vor geblieben sind, an denen sich modellhaft die Entwicklung der Bibliographie unter den Bedingungen des Web 2.0 hätte beobachten lassen. Der 2004 von Richard Cameron gegründete bibliographische Social-Bookmarking-Dienst CiteULike und seine zahlreichen Nacheiferer werden nicht erwähnt. Auch das ebenfalls 2004 entstandene WikisourceProjekt, bei dem digitalisierte Dokumente unter einer freien Lizenz veröffentlicht und von Freiwilligen beschrieben und textlich erfasst werden, findet keine Erwähnung. Und auch LibraryThing, ein 2005 entstandener Webdienst, der seine Benutzer mit großem Erfolg zur Katalogisierung, »Anreicherung« und Vernetzung ihrer privaten Buchsammlungen einlädt, fehlt leider, einschließlich aller Konkurrenzunternehmen.
    Das ist deshalb bedauerlich, weil die für das Internet charakteristische Dezentralisierung der bibliographischen Informationsströme gerade durch Dienste wie CiteULike einen erheblichen Popularitäts- aber auch Forschungs- und Entwicklungsschub erfahren hat. Man betrachte nur die Flut der fachlichen Veröffentlichungen über bibliographische Social-Bookmarking-Dienste in den fachlichen Repositories DUST und E-LIS sowie in den anglophonen Fachzeitschriften seit etwa 2004. Einige mit diesen Diensten zusammenhängende Themen werden von Wissen durchaus berührt. Er findet zum Beispiel mit den Experten heraus, dass das Semantic Web Bestandteil des medio- bzw. wikigraphischen Portals sein müsse (S. 203). Aber die bloße Nennung des Semantic Web lässt nichts von den Spannungen ahnen, die es für das soziale Verhältnis von Zentrum und Peripherie der bibliographischen Information birgt, wenn die partizipativen Strukturen des Web 2.0 und das Semantic Web zusammenkommen. Web 2.0-typische Webservices kombiniert mit den Normdateien der Deutschen Nationalbibliothek würden etwa bedeuten, dass jeder, überall, auch in einem Dienst wie CiteULike, in Wikisource oder in einem eigenen Weblog, Verknüpfungen zu einem Schlagwort erzeugen kann. Ohne also abzuwarten, ob ihm im Jahr 2015 in einem zentralen Portal der traditionellen bibliographischen Diensteanbieter eine >Mitmach-Schicht< zugewiesen wird, in der er dann ein wenig miterschließen darf. Der Autor gibt in seinem Resümee zu erkennen, dass er durchaus um die Eigendynamik seines Gegenstands und die Eigenwilligkeit der Benutzer weiß (S.326f.). Ob das auch für die interviewten Sprecher dieses Delphi-Orakels der bibliographischen Zukunft gilt, muss nach der Lektüre des Buchs allerdings dahingestellt bleiben."
    RVK
    AN 96100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Herstellung von Bibliographien und Informationsdiensten
  17. Lackes, R.; Tillmanns, C.: Data Mining für die Unternehmenspraxis : Entscheidungshilfen und Fallstudien mit führenden Softwarelösungen (2006) 0.04
    0.04231666 = product of:
      0.08463332 = sum of:
        0.07162608 = weight(_text_:von in 1383) [ClassicSimilarity], result of:
          0.07162608 = score(doc=1383,freq=20.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.55928576 = fieldWeight in 1383, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=1383)
        0.013007237 = product of:
          0.039021708 = sum of:
            0.039021708 = weight(_text_:22 in 1383) [ClassicSimilarity], result of:
              0.039021708 = score(doc=1383,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.23214069 = fieldWeight in 1383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1383)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Das Buch richtet sich an Praktiker in Unternehmen, die sich mit der Analyse von großen Datenbeständen beschäftigen. Nach einem kurzen Theorieteil werden vier Fallstudien aus dem Customer Relationship Management eines Versandhändlers bearbeitet. Dabei wurden acht führende Softwarelösungen verwendet: der Intelligent Miner von IBM, der Enterprise Miner von SAS, Clementine von SPSS, Knowledge Studio von Angoss, der Delta Miner von Bissantz, der Business Miner von Business Object und die Data Engine von MIT. Im Rahmen der Fallstudien werden die Stärken und Schwächen der einzelnen Lösungen deutlich, und die methodisch-korrekte Vorgehensweise beim Data Mining wird aufgezeigt. Beides liefert wertvolle Entscheidungshilfen für die Auswahl von Standardsoftware zum Data Mining und für die praktische Datenanalyse.
    Content
    Modelle, Methoden und Werkzeuge: Ziele und Aufbau der Untersuchung.- Grundlagen.- Planung und Entscheidung mit Data-Mining-Unterstützung.- Methoden.- Funktionalität und Handling der Softwarelösungen. Fallstudien: Ausgangssituation und Datenbestand im Versandhandel.- Kundensegmentierung.- Erklärung regionaler Marketingerfolge zur Neukundengewinnung.Prognose des Customer Lifetime Values.- Selektion von Kunden für eine Direktmarketingaktion.- Welche Softwarelösung für welche Entscheidung?- Fazit und Marktentwicklungen.
    Date
    22. 3.2008 14:46:06
  18. Köppen, O.M.H.: ¬Das Grundrecht der Informationsfreiheit unter besonderer Berücksichtigung der neuen Medien (2004) 0.04
    0.040963806 = product of:
      0.08192761 = sum of:
        0.05208341 = weight(_text_:lexikon in 4216) [ClassicSimilarity], result of:
          0.05208341 = score(doc=4216,freq=2.0), product of:
            0.30085498 = queryWeight, product of:
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.04800207 = queryNorm
            0.173118 = fieldWeight in 4216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.2675414 = idf(docFreq=227, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4216)
        0.029844202 = weight(_text_:von in 4216) [ClassicSimilarity], result of:
          0.029844202 = score(doc=4216,freq=20.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.23303574 = fieldWeight in 4216, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4216)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: ZfBB 52(2005) H.5, S.288-289 (E.W. Steinhauer): "Im bibliothekarischen Selbstverständnis nimmt das Grundrecht der Informationsfreiheit einen wichtigen Platz ein. Wollen die Unterhaltsträger den freien Zugang zu den in der Bibliothek verfügbaren Informationen durch Gebühren und sonstige Beschränkungen reglementieren, dominiert das Grundrecht der Informationsfreiheit die bibliothekspolitische Diskussion. Das ist Grund genug, sich als Bibliothekar einmal vertieft mit der verfassungsrechtlichen Literatur zur Informationsfreiheit zu beschäftigen. Man kann viele Kommentare und Handbücher durcharbeiten. Oder man greift zu der Würzburger Dissertation von Oliver Köppen, in der alle wesentlichen Aspekte des Grundrechts der Informationsfreiheit vorgestellt werden. Einen besonderen Schwerpunkt bilden die »Neuen Medien«, vor allem das Internet. Einleitend informiert Köppen über das derzeitige Medienspektrum und steckt den inhaltlichen Rahmen seiner Arbeit ab. Köppen hat vor allem die Massenmedien im Blick. Bücher als Informationsquellen sucht man vergeblich, wenngleich das Wort »Bibliothek« auf S.236 immerhin Erwähnung findet. Zwar ist es richtig, dass in historischer Perspektive das Grundrecht der Informationsfreiheit ein »Massenmedienfreiheitsrecht« ist, gleichwohl sollte man das Buch als wichtigen nachhaltigen Informationsträger nicht außer Acht lassen: Auch Bücher sind Informationsquellen im Sinne der Verfassung. Nach der Einleitung werden Geschichte und Kontext der grundrechtlichen Informationsfreiheit besprochen. Anschließend grenzt Köppen das Grundrecht der Informationsfreiheit gegenüber anderen Grundrechten ab. Leider fehlt die Wissen-schaftsfreiheit. in den folgenden Kapiteln stellt Köppen das Grundrecht der Informationsfreiheit umfassend dar. Er folgt dabei dem allen Juristen wohlbekannten Aufbau der Grundrechtsprüfung, behandelt also den Schutzbereich, die Eingriffe in den Schutzbereich, die Schranken des Grundrechts und die »SchrankenSchranken«, also die Begrenzungen der durch die Grundrechtsschranken eröffneten Eingriffsmöglichkeiten. An dieser Stelle tut der Nicht-Jurist gut daran, sich die Terminologie und den Aufbau einer Grundrechtsprüfung in einem einschlägigen Lehrbuch kurz erläutern zu lassen. Köppens Arbeit schließt mit Ausführungen zu den so genannten objektiv-rechtlichen Komponenten der Informationsfreiheit. Dazu gehört vor allem die spannende Frage nach der Pflicht des Staates, den Zugang zu Informationsquellen herzustellen bzw. zu gewährleisten.
    Für Bibliothekare verdienen drei Aspekte der vorliegenden Arbeit besondere Aufmerksamkeit, nämlich die Frage, ob Informationsfreiheit auch Informationsgebührenfreiheit bedeutet, dann das Problem des Jugendmedienschutzes und schließlich der Umfang von Leistungs- und Bereitstellungspflichten des Staates im Bereich der Informationsfreiheit. Die Frage nach Benutzungsgebühren im Bibliotheksbereich ist heikel. Sind doch Bibliotheken Kultureinrichtungen mit großer Reichweite, die als öffentliche Bibliotheken insbesondere Kinder und Jugendliche ansprechen wollen und als wissenschaftliche Einrichtungen der politisch gewünschten beruflichen Weiterbildung und der grundrechtlich geschützten Ausübung der Wissenschaftsfreiheit dienen. Benutzungsgebühren sind vor diesem Hintergrund problematisch. Sind sie auch verfassungsrechtlich unzulässig? Köppen diskutiert diese Frage am Beispiel der Rundfunkgebühren (S.152-154). Im Ergebnis stellt er fest, dass Gebühren erst dann eine verfassungsrechtlich erhebliche Beeinträchtigung der Informationsfreiheit darstellen, wenn ihre Höhe geeignet ist, Informationssuchende von Informationsquellen fernzuhalten. Überträgt man diese Erwägungen auf die Bibliothek, so gilt: Benutzungsgebühren sind in einem moderaten Umfang zulässig. Da Köppen auf Bibliotheken in diesem Zusammenhang nicht eingeht, bleiben interessante Fragen unerörtert, die sich aus einem Vergleich von Rundfunk-und Bibliotheksgebühren ergeben: So wird der Benutzer vieler Bibliotheken mit kumulierten Gebühren konfrontiert, während der Rundfunkteilnehmer nur eine Gebühr zu entrichten hat. Von daher müsste eine angemessene Bibliotheksgebühr unterhalb der Rundfunkgebühr liegen. Ergiebig sind die Ausführungen zum Jugendmedienschutz (S.170-187). In konzentrierter Form bietet Köppen eine Einführung in die gesetzlichen Vorschriften. Leiderfehlen bei den Ausführungen zum Jugendmedienschutz-Staatsvertrag Hinweise auf weiterführende Literatur. Obwohl das Vorwort der Arbeit von April 2004 datiert, ist dieser Teil der Dissertation offenbar vor dem 1. April 2003 geschrieben und nicht aktualisiert worden, vgl. Fn. 698.
    Grundrechte schützen vor Eingriffen des Staates in die Freiheit seiner Bürger. Problematisch ist aber, ob sie auch einen Anspruch auf konkrete Leistungen gewähren. Schon mit Blick auf die begrenzten haushaltsrechtlichen Möglichkeiten wird man das verneinen müssen. Gleichwohl geben Grundrechte einen Anspruch auf Teilhabe, wenn der Staat bestimmte Leistungen bereitstellt. Vor diesem Hintergrund erörtert Köppen den Anspruch des Bürgers auf »monopolisierte staatliche Information«. Hierzu zählt er ausdrücklich auch die Bestände der in staatlicher Trägerschaft befindlichen Bibliotheken (S.236). Da diese in der Regel dem Gemeingebrauch gewidmet sind, dürfte es hier kaum Probleme geben. Für Behördenbibliotheken mit Spezialbeständen wird man sich Köppens Ansicht anschließen können, dass potenzielle Empfänger einer in staatlicher Hand monopolisierten Information einen Anspruch auf Herstellung von Allgemeinzugänglichkeit haben, wenn sie ein berechtigtes Interesse an den Informationen nachweisen (S.236). Es wurde schon angemerkt: Bibliotheken spielen in Köppens Arbeit keine Rolle. Auch die einschlägige bibliotheksrechtliche Literatur, an der kein Mangel besteht, wurde nicht verarbeitet. Dem Autor wird man hier kaum einen Vorwurf machen können, bewegt er sich in seiner Darstellung doch nur in den vom verfassungsrechtlichen Schrifttum vorgezeichneten Bahnen. Auch dort ist von Bibliotheken kaum die Rede. Wenn man die Register der einschlägigen Kommentare und Handbücher konsultiert, sucht man das Stichwort »Bibliothek« vergeblich. Umgekehrt und merkwürdigerweise fehlt auch im sonst so ausführlichen »Lexikon des gesamten Buchwesens« ein Lemma »Informationsfreiheit«. Hier fragt man sich: Ist denn der Themenkomplex »Bibliothek und Informationsfreiheit« wirklich so selbstverständlich, dass eine literarische Abhandlung dazu überflüssig erscheint? Wenn man die Arbeit von Köppen aufmerksam liest, dann ist das zu verneinen. Gerade Fragen der Gebühren für Bibliotheksbenutzung und die in manchen Hochschulen zu beobachtende Tendenz, externe Nutzer in Hochschulbibliotheken als »einrichtungsfremde« Leser kritisch zu sehen, sollten für Bibliothekare Anlass genug sein, sich intensiver dem Grundrecht der Informationsfreiheit zuzuwenden und die Einrichtung und den Betrieb von Bibliotheken als wichtige Bedingung der Grundrechtsverwirklichung zu begreifen. Hier bietet Köppens Arbeit solide Hintergrundinformationen. Wer sie durchgearbeitet hat, kann mit Unterhaltsträgern und Kritikern einer weitherzigen Bibliothekspolitik sachlich und kompetent diskutieren."
  19. Calvin, W.H.: ¬Der Sprache des Gehirns : Wie in unserem Bewußtsein Gedanken entstehen (2002) 0.04
    0.04057806 = product of:
      0.08115612 = sum of:
        0.042709544 = weight(_text_:von in 1161) [ClassicSimilarity], result of:
          0.042709544 = score(doc=1161,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3334936 = fieldWeight in 1161, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=1161)
        0.03844657 = product of:
          0.057669856 = sum of:
            0.005640907 = weight(_text_:a in 1161) [ClassicSimilarity], result of:
              0.005640907 = score(doc=1161,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 1161, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1161)
            0.052028947 = weight(_text_:22 in 1161) [ClassicSimilarity], result of:
              0.052028947 = score(doc=1161,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 1161, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1161)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Wie ordnen sich in unserem Gehirn Begriffe, Vorstellungen und Erinnerungen zu zusammenhängenden Gedanken? William Calvin erklärt, wie diese Elementarsprache unseres Denkens funktioniert. Ihre Bausteine lassen sich nicht beliebig sortieren. Sie werden so lange arrangiert und sortiert, bis ein brauchbarer Gedanke oder Satz zustande kommt. Calvin zeigt, wie dieser Prozeß der Selektion und Kombination aus dem Hintergrund von einer »Darwinmaschine« gesteuert wird.
    Date
    11.11.2002 14:30:22
    Footnote
    Titel der Originalausgabe: The cerebral code: thinking a thought in the mosaics of the mind. Deutsche Ausgabe 2000 bei Hanser
    Issue
    Aus dem Englischen von Hartmut Schickert.
  20. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.04
    0.04026025 = product of:
      0.0805205 = sum of:
        0.043248355 = weight(_text_:von in 38) [ClassicSimilarity], result of:
          0.043248355 = score(doc=38,freq=42.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.33770084 = fieldWeight in 38, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
        0.037272148 = product of:
          0.055908218 = sum of:
            0.0024929526 = weight(_text_:a in 38) [ClassicSimilarity], result of:
              0.0024929526 = score(doc=38,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.045040898 = fieldWeight in 38, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=38)
            0.053415265 = weight(_text_:z in 38) [ClassicSimilarity], result of:
              0.053415265 = score(doc=38,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.20848879 = fieldWeight in 38, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=38)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären.
    Zum Inhalt Auf einen kurzen einleitenden Abschnitt folgt eine Einführung in die grundlegende Methodik des automatischen Klassifizierens. Oberhauser erklärt hier Begriffe wie Einfach- und Mehrfachklassifizierung, Klassen- und Dokumentzentrierung, und geht danach auf die hauptsächlichen Anwendungen der automatischen Klassifikation von Textdokumenten, maschinelle Lernverfahren und Techniken der Dimensionsreduktion bei der Indexierung ein. Zwei weitere Unterkapitel sind der Erstellung von Klassifikatoren und den Methoden für deren Auswertung gewidmet. Das Kapitel wird abgerundet von einer kurzen Auflistung einiger Softwareprodukte für automatisches Klassifizieren, die sowohl kommerzielle Software, als auch Projekte aus dem Open-Source-Bereich umfasst. Der Hauptteil des Buches ist den großen Projekten zur automatischen Erschließung von Webdokumenten gewidmet, die von OCLC (Scorpion) sowie an den Universitäten Lund (Nordic WAIS/WWW, DESIRE II), Wolverhampton (WWLib-TOS, WWLib-TNG, Old ACE, ACE) und Oldenburg (GERHARD, GERHARD II) durchgeführt worden sind. Der Autor beschreibt hier sehr detailliert - wobei der Detailliertheitsgrad unterschiedlich ist, je nachdem, was aus der Projektdokumentation geschlossen werden kann - die jeweilige Zielsetzung des Projektes, die verwendete Klassifikation, die methodische Vorgehensweise sowie die Evaluierungsmethoden und -ergebnisse. Sofern Querverweise zu anderen Projekten bestehen, werden auch diese besprochen. Der Verfasser geht hier sehr genau auf wichtige Aspekte wie Vokabularbildung, Textaufbereitung und Gewichtung ein, so dass der Leser eine gute Vorstellung von den Ansätzen und der möglichen Weiterentwicklung des Projektes bekommt. In einem weiteren Kapitel wird auf einige kleinere Projekte eingegangen, die dem für Bibliotheken besonders interessanten Thema des automatischen Klassifizierens von Büchern sowie den Bereichen Patentliteratur, Mediendokumentation und dem Einsatz bei Informationsdiensten gewidmet sind. Die Darstellung wird ergänzt von einem Literaturverzeichnis mit über 250 Titeln zu den konkreten Projekten sowie einem Abkürzungs- und einem Abbildungsverzeichnis. In der abschließenden Diskussion der beschriebenen Projekte wird einerseits auf die Bedeutung der einzelnen Projekte für den methodischen Fortschritt eingegangen, andererseits aber auch einiges an Kritik geäußert, v. a. bezüglich der mangelnden Auswertung der Projektergebnisse und des Fehlens an brauchbarer Dokumentation. So waren z. B. die Projektseiten des Projekts GERHARD (www.gerhard.de/) auf den Stand von 1998 eingefroren, zurzeit [11.07.06] sind sie überhaupt nicht mehr erreichbar. Mit einigem Erstaunen stellt Oberhauser auch fest, dass - abgesehen von der fast 15 Jahre alten Untersuchung von Larsen - »keine signifikanten Studien oder Anwendungen aus dem Bibliotheksbereich vorliegen« (S. 139). Wie der Autor aber selbst ergänzend ausführt, dürfte dies daran liegen, dass sich bibliografische Metadaten wegen des geringen Textumfangs sehr schlecht für automatische Klassifikation eignen, und dass - wie frühere Ergebnisse gezeigt haben - das übliche TF/IDF-Verfahren nicht für Katalogisate geeignet ist (ibd.).
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."

Authors

Languages

Types

  • s 246
  • i 30
  • x 9
  • b 8
  • el 8
  • n 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications