Search (279 results, page 2 of 14)

  • × type_ss:"el"
  • × year_i:[2000 TO 2010}
  1. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.01
    0.011539682 = product of:
      0.057698406 = sum of:
        0.015146403 = weight(_text_:und in 611) [ClassicSimilarity], result of:
          0.015146403 = score(doc=611,freq=2.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.24487628 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.023646591 = weight(_text_:des in 611) [ClassicSimilarity], result of:
          0.023646591 = score(doc=611,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.30596817 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.018905412 = product of:
          0.037810825 = sum of:
            0.037810825 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.037810825 = score(doc=611,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Content
    Präsentation zum Vortrag anlässlich des 98. Deutscher Bibliothekartag in Erfurt: Ein neuer Blick auf Bibliotheken; TK10: Information erschließen und recherchieren Inhalte erschließen - mit neuen Tools
    Date
    22. 8.2009 12:54:24
  2. Tudhope, D.; Hodge, G.: Terminology registries (2007) 0.01
    0.011539682 = product of:
      0.057698406 = sum of:
        0.015146403 = weight(_text_:und in 539) [ClassicSimilarity], result of:
          0.015146403 = score(doc=539,freq=2.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.24487628 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=539)
        0.023646591 = weight(_text_:des in 539) [ClassicSimilarity], result of:
          0.023646591 = score(doc=539,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.30596817 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=539)
        0.018905412 = product of:
          0.037810825 = sum of:
            0.037810825 = weight(_text_:22 in 539) [ClassicSimilarity], result of:
              0.037810825 = score(doc=539,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.38690117 = fieldWeight in 539, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=539)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Date
    26.12.2011 13:22:07
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.01
    0.011474744 = product of:
      0.05737372 = sum of:
        0.021857575 = weight(_text_:und in 572) [ClassicSimilarity], result of:
          0.021857575 = score(doc=572,freq=34.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.35337773 = fieldWeight in 572, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.015243417 = product of:
          0.030486833 = sum of:
            0.030486833 = weight(_text_:kommunikationswissenschaften in 572) [ClassicSimilarity], result of:
              0.030486833 = score(doc=572,freq=2.0), product of:
                0.1483304 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.027907511 = queryNorm
                0.20553327 = fieldWeight in 572, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=572)
          0.5 = coord(1/2)
        0.020272728 = weight(_text_:des in 572) [ClassicSimilarity], result of:
          0.020272728 = score(doc=572,freq=12.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.26231304 = fieldWeight in 572, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
      0.2 = coord(3/15)
    
    Abstract
    Identifikation der Sprache bzw. Sprachen elektronischer Textdokumente ist einer der wichtigsten Schritte in vielen Prozessen maschineller Textverarbeitung. Die vorliegende Arbeit stellt LangIdent, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten vor. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
    Die Arbeit wird in zwei Hauptteile gegliedert. Der erste Teil besteht aus Kapiteln 1-5, in denen theoretische Grundlagen zum Thema Sprachidentifikation dargelegt werden. Das erste Kapitel beschreibt den Sprachidentifikationsprozess und definiert grundlegende Begriffe. Im zweiten und dritten Kapitel werden vorherrschende Ansätze zur Sprachidentifikation von monolingualen Dokumenten dargestellt und miteinander verglichen, indem deren Vor- und Nachteile diskutiert werden. Das vierte Kapitel stellt einige Arbeiten vor, die sich mit der Sprachidentifikation von multilingualen Texten befasst haben. Der erste Teil der Arbeit wird mit einem Überblick über die bereits entwickelten und im Internet verfügbaren Sprachidentifikationswerkzeuge abgeschlossen. Der zweite Teil der Arbeit stellt die Entwicklung des Sprachidentifikationssystems LangIdent dar. In den Kapiteln 6 und 7 werden die an das System gestellten Anforderungen zusammengefasst und die wichtigsten Phasen des Projekts definiert. In den weiterführenden Kapiteln 8 und 9 werden die Systemarchitektur und eine detaillierte Beschreibung ihrer Kernkomponenten gegeben. Das Kapitel 10 liefert ein statisches UML-Klassendiagramm mit einer ausführlichen Erklärung von Attributen und Methoden der im Diagramm vorgestellten Klassen. Das nächste Kapitel befasst sich mit den im Prozess der Systementwicklung aufgetretenen Problemen. Die Bedienung des Programms wird im Kapitel 12 beschrieben. Im letzten Kapitel der Arbeit wird die Systemevaluierung vorgestellt, in der der Aufbau und Umfang von Trainingskorpora sowie die wichtigsten Ergebnisse mit der anschließenden Diskussion präsentiert werden.
    Content
    Arbeit zur Erlangung des akademischen Grades einer Magistra Artium im Fach Internationales Informationsmanagement Schwerpunkt Informationswissenschaften. - Vgl. unter: http://web1.bib.uni-hildesheim.de/edocs/2005/503974617/doc/503974617.pdf.
    Imprint
    Hildesheim : Universität Hildesheim / Fachbereich III; Informations- und Kommunikationswissenschaften
  4. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.01
    0.011151413 = product of:
      0.055757068 = sum of:
        0.02597067 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.02597067 = score(doc=4324,freq=12.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.016552612 = weight(_text_:des in 4324) [ClassicSimilarity], result of:
          0.016552612 = score(doc=4324,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.2141777 = fieldWeight in 4324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.013233789 = product of:
          0.026467578 = sum of:
            0.026467578 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.026467578 = score(doc=4324,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  5. ¬Der Brockhaus multimedial 2003 (2002) 0.01
    0.011126727 = product of:
      0.083450444 = sum of:
        0.06830404 = weight(_text_:medien in 6600) [ClassicSimilarity], result of:
          0.06830404 = score(doc=6600,freq=2.0), product of:
            0.13135035 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.027907511 = queryNorm
            0.5200141 = fieldWeight in 6600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=6600)
        0.015146403 = weight(_text_:und in 6600) [ClassicSimilarity], result of:
          0.015146403 = score(doc=6600,freq=2.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.24487628 = fieldWeight in 6600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=6600)
      0.13333334 = coord(2/15)
    
    Content
    120.000 Artikel mit 195.000 Stichwörtern; drehbarer und frei zoombarer 3D-Globus. In der Premium-Version Online-Zugriff auf 2.000.000 Bilder der dpa sowie weitere Medien-Elemente
  6. Henrich, A.: Information Retrieval : Grundlagen, Modelle und Anwendungen (2008) 0.01
    0.011005814 = product of:
      0.055029072 = sum of:
        0.020987472 = weight(_text_:und in 1525) [ClassicSimilarity], result of:
          0.020987472 = score(doc=1525,freq=6.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.33931053 = fieldWeight in 1525, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1525)
        0.018917272 = weight(_text_:des in 1525) [ClassicSimilarity], result of:
          0.018917272 = score(doc=1525,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.24477452 = fieldWeight in 1525, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=1525)
        0.01512433 = product of:
          0.03024866 = sum of:
            0.03024866 = weight(_text_:22 in 1525) [ClassicSimilarity], result of:
              0.03024866 = score(doc=1525,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.30952093 = fieldWeight in 1525, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1525)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Sehr ausführliches Skript zu Veranstaltungen. Der vorliegende Lehrtext ist in seiner ursprünglichen Form um das Jahr 2000 entstanden und seitdem kontinuierlich weiterentwickelt worden. Er war und ist Grundlage diverser Lehrveranstaltungen des Lehrstuhls für Medieninformatik ( http://www.uni-bamberg.de/minf) an der Otto- Friedrich-Universität Bamberg.
    Date
    22. 8.2015 21:23:08
  7. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.01
    0.010657667 = product of:
      0.053288337 = sum of:
        0.026408654 = weight(_text_:und in 5938) [ClassicSimilarity], result of:
          0.026408654 = score(doc=5938,freq=38.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.42695636 = fieldWeight in 5938, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
        0.017421048 = product of:
          0.034842096 = sum of:
            0.034842096 = weight(_text_:kommunikationswissenschaften in 5938) [ClassicSimilarity], result of:
              0.034842096 = score(doc=5938,freq=2.0), product of:
                0.1483304 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.027907511 = queryNorm
                0.23489517 = fieldWeight in 5938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5938)
          0.5 = coord(1/2)
        0.009458636 = weight(_text_:des in 5938) [ClassicSimilarity], result of:
          0.009458636 = score(doc=5938,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.12238726 = fieldWeight in 5938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
      0.2 = coord(3/15)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
    Imprint
    Münster : Institut für Kommunikationswissenschaften
  8. Gödert, W.: Semantik und Strukturierung von Wissen als Aufgabe des Wissensmanagements (2001) 0.01
    0.010240829 = product of:
      0.07680621 = sum of:
        0.029988347 = weight(_text_:und in 4574) [ClassicSimilarity], result of:
          0.029988347 = score(doc=4574,freq=4.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.4848303 = fieldWeight in 4574, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4574)
        0.04681786 = weight(_text_:des in 4574) [ClassicSimilarity], result of:
          0.04681786 = score(doc=4574,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.605786 = fieldWeight in 4574, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=4574)
      0.13333334 = coord(2/15)
    
    Footnote
    Vortrag im Rahmen des Leuchtturm-Projektes "Wissens- und Informationsmaganement" der FH Köln am 4.5.2001
  9. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.01
    0.009994122 = product of:
      0.04997061 = sum of:
        0.01707601 = weight(_text_:medien in 1163) [ClassicSimilarity], result of:
          0.01707601 = score(doc=1163,freq=2.0), product of:
            0.13135035 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.027907511 = queryNorm
            0.13000353 = fieldWeight in 1163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
        0.019675754 = weight(_text_:und in 1163) [ClassicSimilarity], result of:
          0.019675754 = score(doc=1163,freq=54.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.3181036 = fieldWeight in 1163, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
        0.013218846 = weight(_text_:des in 1163) [ClassicSimilarity], result of:
          0.013218846 = score(doc=1163,freq=10.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.1710414 = fieldWeight in 1163, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
      0.2 = coord(3/15)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
    Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
    Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
  10. Schneider, R.: Bibliothek 1.0, 2.0 oder 3.0? (2008) 0.01
    0.009630087 = product of:
      0.048150435 = sum of:
        0.018364036 = weight(_text_:und in 6122) [ClassicSimilarity], result of:
          0.018364036 = score(doc=6122,freq=6.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.2968967 = fieldWeight in 6122, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6122)
        0.016552612 = weight(_text_:des in 6122) [ClassicSimilarity], result of:
          0.016552612 = score(doc=6122,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.2141777 = fieldWeight in 6122, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6122)
        0.013233789 = product of:
          0.026467578 = sum of:
            0.026467578 = weight(_text_:22 in 6122) [ClassicSimilarity], result of:
              0.026467578 = score(doc=6122,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.2708308 = fieldWeight in 6122, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6122)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Noch ist nicht entschieden mit welcher Vehemenz das sogenannte Web 2.0 die Bibliotheken verändern wird. Allerdings wird hier und da bereits mit Bezugnahme auf das sogenannte Semantic Web von einer dritten und mancherorts von einer vierten Generation des Web gesprochen. Der Vortrag hinterfragt kritisch, welche Konzepte sich hinter diesen Bezeichnungen verbergen und geht der Frage nach, welche Herausforderungen eine Übernahme dieser Konzepte für die Bibliothekswelt mit sich bringen würde. Vgl. insbes. Folie 22 mit einer Darstellung von der Entwicklung vom Web 1.0 zum Web 4.0
  11. Encyclopædia Britannica 2003 : Ultmate Reference Suite (2002) 0.01
    0.00821624 = product of:
      0.0410812 = sum of:
        0.017136198 = weight(_text_:und in 2182) [ClassicSimilarity], result of:
          0.017136198 = score(doc=2182,freq=16.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.27704588 = fieldWeight in 2182, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2182)
        0.01638284 = weight(_text_:des in 2182) [ClassicSimilarity], result of:
          0.01638284 = score(doc=2182,freq=6.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.21198097 = fieldWeight in 2182, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2182)
        0.007562165 = product of:
          0.01512433 = sum of:
            0.01512433 = weight(_text_:22 in 2182) [ClassicSimilarity], result of:
              0.01512433 = score(doc=2182,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.15476047 = fieldWeight in 2182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2182)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Footnote
    Rez. in: c't 2002, H.23, S.229 (T.J. Schult): "Mac-Anwender hatten bisher keine große Auswahl bei Multimedia-Enzyklopädien: entweder ein grottenschlechtes Kosmos Kompaktwissen, das dieses Jahr letztmalig erscheinen soll und sich dabei als Systhema Universallexikon tarnt. Oder ein Brockhaus in Text und Bild mit exzellenten Texten, aber flauer Medienausstattung. Die von Acclaim in Deutschland vertriebenen Britannica-Enzyklopädien stellen eine ausgezeichnete Alternative für den des Englischen Kundigen dar. Während früher nur Einfach-Britannicas auf dem Mac liefen, gilt dies nun für alle drei Versionen Student, Deluxe und Ultimate Reference Suite. Die Suite enthält dabei nicht nur alle 75 000 Artikel der 32 Britannica-Bände, sondern auch die 15 000 der Student Encyclopaedia, eines eigenen Schülerlexikons, das durch sein einfaches Englisch gerade für Nicht-Muttersprachler als Einstieg taugt. Wer es noch elementarer haben möchte, klickt sich zur Britannica Elementary Encyclopaedia, welche unter der gleichen Oberfläche wie die anderen Werke zugänglich ist. Schließlich umfasst die Suite einen Weltatlas sowie einsprachige Wörterbücher und Thesauri von Merriam-Webster in der Collegiate- und Student-Ausbaustufe mit allein 555 000 Definitionen, Synonymen und Antonymen. Wer viel in englischer Sprache recherchiert oder gar schreibt, leckt sich angesichts dieses Angebots (EUR 99,95) die Finger, zumal die Printausgabe gut 1600 Euro kostet. Die Texte sind einfach kolossal - allein das Inhaltsverzeichnis des Artikels Germany füllt sieben Bildschirmseiten. Schon die Inhalte aus den BritannicaBänden bieten mehr als doppelt so viel Text wie die rund tausend Euro kostende Brockhaus Enzyklopädie digital (c't 22/02, S. 38). Allein die 220 000 thematisch einsortierten Web-Links sind das Geld wert. Wer die 2,4 Gigabyte belegende Komplettinstallation wählt, muss sogar nie mehr die DVD (alternativ vier CD-ROMs) einlegen. Dieses Jahr muss sich niemand mehr mit dem Britannica-typischen Kuddelmuddel aus Lexikonartikeln und vielen, vielen Jahrbüchern herumschlagen - außer dem Basistext der drei Enzyklopädien sind 'nur' die zwei Jahrbücher 2001 und 2002 getrennt aufgeführt. Wer des Englischen mächtig ist, mag hier die gute Gelegenheit zum Kauf nutzen."
  12. Schröder, B.: Geschichtsverdrehungen (2003) 0.01
    0.008099178 = product of:
      0.040495887 = sum of:
        0.009087841 = weight(_text_:und in 1373) [ClassicSimilarity], result of:
          0.009087841 = score(doc=1373,freq=2.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.14692576 = fieldWeight in 1373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1373)
        0.020064797 = weight(_text_:des in 1373) [ClassicSimilarity], result of:
          0.020064797 = score(doc=1373,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.25962257 = fieldWeight in 1373, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1373)
        0.011343247 = product of:
          0.022686495 = sum of:
            0.022686495 = weight(_text_:22 in 1373) [ClassicSimilarity], result of:
              0.022686495 = score(doc=1373,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.23214069 = fieldWeight in 1373, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1373)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Die Microsoft Encarta sieht die Geschichte Palästinas aus einer einseitigen Perspektive. Wer in alten Zeiten etwas über die Welt erfahren wollte, kaufte sich den legendären "Brockhaus", Meyers Konversationslexikon oder das "Große Bertelsmann Volkslexikon". Derartige Bücher waren auch innenarchitektonisch wertvoll, weil man sie als Zeichen der Bildung, gemessen in Kubikmetern, in der Schrankwand gut sichtbar platzieren konnte. Nachschlagewerke waren praktisch "für die Wissensbedürfnisse des bürgerlichen Alltags". Für den bürgerlichen Alltag mit dem Computer, der von Windows-Produkten wimmelt, bietet sich heute die Microsoft Encarta als Compact Disk an, eine Enzyklopädie des Wissens für den Hausgebrauch. Nur steht dort an manchen Stellen grober Unfug. Und wenn es um Israel geht, fragt man sich, ob die in der deutschen "Encarta" vertretenen Thesen nur schlecht redigiert sind oder ob Microsoft anti-israelische Vorurteile bewusst fördern will. Das jüdische Portal haGalil spricht sogar von "Geschichtsverdrehung unter enzyklopädischem Deckmäntelchen"
    Date
    24. 2.2003 14:22:57
  13. Dextre Clarke, S.G.: Challenges and opportunities for KOS standards (2007) 0.01
    0.007943041 = product of:
      0.0595728 = sum of:
        0.033105224 = weight(_text_:des in 4643) [ClassicSimilarity], result of:
          0.033105224 = score(doc=4643,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.4283554 = fieldWeight in 4643, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=4643)
        0.026467578 = product of:
          0.052935157 = sum of:
            0.052935157 = weight(_text_:22 in 4643) [ClassicSimilarity], result of:
              0.052935157 = score(doc=4643,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.5416616 = fieldWeight in 4643, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4643)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    Beitrag anläßlich des Seminars "Tools for knowledge organization - ISKO UK Seminar", 4. September 2007
    Date
    22. 9.2007 15:41:14
  14. Reinmann-Rothmeier, G.: Wissen Managen : das Münchener Modell (2001) 0.01
    0.00792246 = product of:
      0.05941845 = sum of:
        0.023948565 = weight(_text_:und in 3452) [ClassicSimilarity], result of:
          0.023948565 = score(doc=3452,freq=20.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.3871834 = fieldWeight in 3452, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3452)
        0.035469886 = weight(_text_:des in 3452) [ClassicSimilarity], result of:
          0.035469886 = score(doc=3452,freq=18.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.45895222 = fieldWeight in 3452, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3452)
      0.13333334 = coord(2/15)
    
    Abstract
    Ausgangspunkt des Münchener Wissensmanagement-Modells ist die Zielrichtung des Lernens sowie die Vorstellung von Wissen als einem variablen Zustand zwischen Information und Handeln. Wissensmanagement umschreibt im Münchener Modell den Versuch, Wissensbewegungen zwischen Information und Handeln so zu gestalten, dass konkrete Probleme und Situationen zielbezogen bewältigt werden können, es verkörpert eine neue Enstellung gegenüber Wissen und Wissensträgern sowie eine neue Kultur im Umgang mit diesen und ermöglicht eine Integration des technisch orientierten Informationsmanagements mit dem Human Ressource-orientierten Kompetenzmanagement. Mit den vier Phänomenbereichen Wissensrepräsentation, -nutzung, -kommunikation und -generierung will das Münchener Modell psychologische, organisationale und technische Aufgaben des Wissensmanagement konzeptgeleitet aufeinander beziehen. Communities bilden die Keimzelle des Wissensmanagements und verstärken die Integrationsfunktion des Modells.
    Content
    1. Mit Wissensmanagement zur lernenden Organisation 1.1 " Outlearning the wolves" - eine Geschichte zum Enstieg 1.2 Der individuelle und der organisationale Lernzyklus 2. Das Wissens- und Managementverständnis im Münchener Modell 2.1 Bedeutungswandel beim Wissensbegriff 2.2 Balanceakt beim Managementbegriff 3. Die Auffassung von Wissensmanagement im Münchener Modell 3.1 Die Integrationsfunktion des Münchener Modells 3.2 Der Bedeutungsrahmen des Münchener Modells 4. Vier Phänomenbereiche im Münchener Modell 4.1 Wissensrepräsentation 4.2 Wissenskommunikation 4.3 Wissensgenerierung 4.4 Wissensnutzung 5. Die Rolle von Communities im Münchener Modell 5.1 Communities als innovative Organisationsstruktur 5.2 Communities als Keimzelle des Wissensmanagements 6. Ausblick: Forschungsstrategische Überlegungen zum Wissensmanagement
  15. Handbuch Informationsvermittlung : Aufbau und Durchführung des Informations- / Wissensmanagement (2003) 0.01
    0.007839656 = product of:
      0.05879742 = sum of:
        0.02404417 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
          0.02404417 = score(doc=1216,freq=14.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.38872904 = fieldWeight in 1216, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1216)
        0.034753248 = weight(_text_:des in 1216) [ClassicSimilarity], result of:
          0.034753248 = score(doc=1216,freq=12.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.4496795 = fieldWeight in 1216, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1216)
      0.13333334 = coord(2/15)
    
    Abstract
    Die aktualisierte und überarbeitete Neuauflage des Handbuchs Informationsvermittlung ist erschienen. Der Content wurde u.a. durch die Kapitel Marktanalyse der Informationswirtschaft, visuelle Analyse und Content Management angereichert, der Inhalt noch besser auf die Bedürfnisse des Lesers zugeschnitten und aufbereitet. Auf 372 Seiten zeigt Ihnen das umfassende Handbuch Informationsvermittlung, wie ein professioneller Informationsservice die speziellen Fachinformationen für einen erfolgreichen Geschäftsabschluss vermittelt. Heute muss man wissen, wie man vorzugehen hat und wo die entscheidungsrelevante Information zu holen ist. So ist man dem Wettbewerb immer einen Schritt voraus. Das detaillierte Handbuch Informationsvermittlung gibt Ihnen einen sehr guten Überblick über die Informationswirtschaft. Kapitel über die Organisation des Informationsmanagements, den Informationsbedarf oder die Wertschöpfung des Informationsservices gewähren einen schnellen Aufbau und eine reibungslose Durchführung. Zahlreiche Praxisbeispiele bieten wertvolle Handlungsempfehlungen zur Optimierung des Information Centers. Sie finden Leifaden und Abläufe zur professionellen Onlinerecherche, Hinweise 'zu Ordnungsprinzipien sowie mehrere Mindmaps zur statistischen Analyse.
  16. Ermert, A.; Stein, R.: ¬Das Portal museumsvokabular.de für kontrolliertes Vokabular (2006) 0.01
    0.0077740373 = product of:
      0.05830528 = sum of:
        0.018175682 = weight(_text_:und in 2831) [ClassicSimilarity], result of:
          0.018175682 = score(doc=2831,freq=2.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.29385152 = fieldWeight in 2831, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2831)
        0.040129595 = weight(_text_:des in 2831) [ClassicSimilarity], result of:
          0.040129595 = score(doc=2831,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.51924515 = fieldWeight in 2831, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=2831)
      0.13333334 = coord(2/15)
    
    Content
    Präsentation des Web-basierten Konzepts zur verteilten Vokabularverwaltung anlässlich der Tagung "museumsand theinternet-Tagung 18.05.2006 Berlin"
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  17. Knutsen, U.: Working in a distributed electronic environment : Experiences with the Norwegian edition (2003) 0.01
    0.0077730506 = product of:
      0.038865253 = sum of:
        0.021844452 = weight(_text_:und in 1937) [ClassicSimilarity], result of:
          0.021844452 = score(doc=1937,freq=26.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.3531656 = fieldWeight in 1937, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1937)
        0.009458636 = weight(_text_:des in 1937) [ClassicSimilarity], result of:
          0.009458636 = score(doc=1937,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.12238726 = fieldWeight in 1937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1937)
        0.007562165 = product of:
          0.01512433 = sum of:
            0.01512433 = weight(_text_:22 in 1937) [ClassicSimilarity], result of:
              0.01512433 = score(doc=1937,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.15476047 = fieldWeight in 1937, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1937)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Die Einführung der Dewey-Dezimalklassifikation (DDC) in Norwegen ist das Verdienst eines Mannes und Ergebnis seiner Suche nach beruflichem Erfolg. In den späten achtziger Jahren des 19. Jahrhunderts kaufte der Student und Bohemien Haakon Nyhuus eine einfache Fahrkarte in die USA. Zufällig bot man ihm eine Arbeit in der Newberry Library in Chicago an, wo er William F. Poole kennen lernte, der von dem jungen Mann beeindruckt war und ihn als Leiter der Katalogabteilung der Chicago Public Library empfahl. Seine bibliothekarische Karriere dort war so kurz wie sein Aufenthalt in den USA. 1897 kehrte er nach Norwegen zurück und übernahm die Leitung der Stadtbibliothek von Oslo. Nyhuus wurde bald der bedeutendste Bibliotheksreformer, den es in Norwegen je gab. 1898 führte er die DDC in der Bibliothek ein. Nyhuus schätzte die DDC nicht besonders und bezeichnete sie als "alte Kutsche mit zehn Rädern, von denen einige ein wenig aus dem Gleichgewicht geraten und durch Kummer und Tränen abgenützt sind". Trotzdem ist es ihm zuzuschreiben, dass die DDC heute in allen öffentlichen Bibliotheken und einer großen Anzahl wissenschaftlicher Bibliotheken in Norwegen verwendet wird. Norwegen ist ein dünn bevölkertes Land mit etwa 4,5 Millionen Einwohnern. Die Bibliotheken sind meist klein und ihre Bestände eher begrenzt. Selbst wenn die großen Universitätsbibliotheken und Bibliotheken mit Spezialsammlungen dazu tendieren, die internationale Ausgabe in vier Bänden zu benutzen, betrachten die meisten Bibliotheken die Hilfstafeln als zu detailliert für ihre Zwecke. Es gibt einen großen Bedarf an Terminologie auf Norwegisch. Einige Subject Gateways und Nachweise sind entsprechend der DDC organisiert und die norwegische Ausgabe bildet eine wichtige Grundlage für die Bildung von Schlagwörtern. Deshalb ist es in Norwegen Tradition, jede zweite vollständige Ausgabe der DDC ins Norwegische zu übersetzen, zu kürzen und entsprechend dem nationalen Literaturaufkommen leicht anzupassen.
    Object
    DDC-22
  18. Beuth, P.: ¬Das Netz der Welt : Lobos Webciety (2009) 0.01
    0.007664801 = product of:
      0.038324006 = sum of:
        0.015612554 = weight(_text_:und in 2136) [ClassicSimilarity], result of:
          0.015612554 = score(doc=2136,freq=34.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.25241268 = fieldWeight in 2136, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2136)
        0.010888156 = product of:
          0.021776311 = sum of:
            0.021776311 = weight(_text_:kommunikationswissenschaften in 2136) [ClassicSimilarity], result of:
              0.021776311 = score(doc=2136,freq=2.0), product of:
                0.1483304 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.027907511 = queryNorm
                0.14680949 = fieldWeight in 2136, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2136)
          0.5 = coord(1/2)
        0.011823296 = weight(_text_:des in 2136) [ClassicSimilarity], result of:
          0.011823296 = score(doc=2136,freq=8.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.15298408 = fieldWeight in 2136, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2136)
      0.2 = coord(3/15)
    
    Content
    "Es gibt Menschen, für die ist "offline" keine Option. Sascha Lobo ist so jemand. Zwölf bis 14 Stunden täglich verbringt er im Internet. "Offline sein ist wie Luft anhalten", hat er mal geschrieben. Der Berliner ist eine große Nummer in der Internet-Gemeinde, er ist Blogger, Buchautor, Journalist und Werbetexter. Er ist Mitarbeiter der Firma "Zentrale Intelligenz-Agentur", hat für das Blog Riesenmaschine den Grimme-Online-Award bekommen, seine Bücher ("Dinge geregelt kriegen - ohne einen Funken Selbstdisziplin") haben Kultstatus. Und politisch aktiv ist er auch: Er sitzt im Online-Beirat der SPD. Für die Cebit 2009 hat er den Bereich Webciety konzipiert. Dazu gehört der "Messestand der Zukunft", wie er sagt. Alles, was der Aussteller mitbringen muss, ist ein Laptop. Youtube wird dort vertreten sein, die Macher des Social Bookmarking-Werkzeugs "Mister Wong", aber auch Vertreter von DNAdigital, einer Plattform, auf der sich Unternehmen und Jugendliche über die Entwicklung des Internets austauschen. Webciety ist ein Kunstbegriff, der sich aus Web und Society zusammensetzt, und die vernetzte Gesellschaft bedeutet. Ein Großteil der sozialen Kommunikation - vor allem innerhalb einer Altersstufe - findet inzwischen im Netz statt. Dabei sind es nicht nur die Teenager, die sich bei SchülerVZ anmelden, oder die BWL-Studenten, die bei Xing berufliche Kontakte knüpfen wollen. Laut der aktuellen Studie "Digitales Leben" der Ludwig-Maximilians-Universität München ist jeder zweite deutsche Internetnutzer in mindestens einem Online-Netzwerk registriert. "Da kann man schon sehen, dass ein gewisser Umschwung in der gesamten Gesellschaft zu bemerken ist. Diesen Umschwung kann man durchaus auch auf der Cebit würdigen", sagt Lobo. Er hat angeblich 80 Prozent seiner Freunde online kennen gelernt. "Das hätte ich nicht gemacht, wenn ich nichts von mir ins Netz gestellt hätte." Für ihn sind die Internet-Netzwerke aber keineswegs die Fortsetzung des Poesiealbums mit anderen Mitteln: "Wovor man sich hüten sollte, ist, für alles, was im Netz passiert, Entsprechungen in der Kohlenstoffwelt zu finden. Eine Email ist eben kein Brief, eine SMS ist keine Postkarte."
    Die moderne Kommunikationstechnologie hat die Gesellschaft verändert. Mittlerweile wächst eine Generation heran, die zwischen Internet und dem, was Lobo leicht spöttisch die Kohlenstoffwelt nennt, gar nicht mehr trennt. "Wenn man heute mit 13-,14-, 15-Jährigen spricht, und die sagen: 'Dann hat er mir das erzählt, und dann haben wir uns Fotos angeguckt', dann ist überhaupt nicht klar, ob man das Auge in Auge gemacht hat oder im Netz. Es ist aber auch gar nicht so wichtig." Diese Veränderungen haben aber auch ihre Schattenseiten. Beispiel: Rottenneighbor.com, wo Nachbarn anonym denunziert werden. Oder die Gefahr, dass Personalchefs kompromittierende Fotos von einem Bewerber im Netz finden, wofür der sich beim Vorstellungsgespräch rechtfertigen muss, wenn er denn noch eingeladen wird. Für Lobo überwiegen die Vorteile der Vernetzung: "Der Mensch ist ein soziales Wesen und braucht die Interaktion. Und wenn das im Elektronischen stattfindet, dann will er daran teilnehmen, weil das alle anderen auch machen." US-Präsident Barack Obama hat das sehr professionell für seinen Wahlkampf genutzt. Er hat Profile bei Facebook, MySpace und Twitter eingerichtet und allein mit seiner Online-Präsenz zigtausende junge Wähler erreicht - selbst wenn er über seinen Twitter-Account so gut wie nichts Persönliches verbreitete, sondern nur die nächsten Wahlkampftermine veröffentlichte. Wer sich gut vernetzt, profitiert aber auch im Alltag davon. Ein Beispiel, das auf Wirtschaftsvorträgen gerne genannt wird, ist das einer Praktikantin, die neu in der Stadt ist und einen Zahnarzt sucht. Die Kollegen empfehlen ihr zwei, die sie für gleich gut halten. Was tut die Frau? Sie prüft im Internet, welcher Arzt besser vernetzt ist, denn der, vermutet sie, verfügt wahrscheinlich auch über die modernere Ausstattung.
    Auch ambitionierte soziale Projekte können gelingen: Refunite.org ist eine Art Suchmaschine, mit der Flüchtlinge weltweit nach vermissten Familienangehörigen suchen können. Lobo nennt als Beispiel die englische Seite fixmystreet.co.uk. Dort tragen Menschen ihre Postleitzahl ein und weisen auf Straßenschäden oder fehlende Schilder hin, oft bebildert mit selbst geschossenen Fotos. Die Eingaben werden an die zuständige Behörde weitergeleitet, damit die weiß, wo sie Schlaglöcher ausbessern muss. Online steht dann nachzulesen, was alles in einem Stadtteil verbessert wurde - und was nicht. "Das ist ein relativ simples Tool, das aber die Fähigkeit des Netzes, Informationen zwischen den Menschen neu zu sortieren, dazu nutzt, die Welt tatsächlich zu verbessern", sagt Lobo. 2009 feiert die Cebit also, dass wir alle online sind. In zehn Jahren wird sie feiern, dass wir das gar nicht mehr merken, glaubt Lobo: "Ich bin überzeugt davon, dass wir noch vernetzter sein werden." Halbautomatische Kommunikation nennt er das. "Dass zum Beispiel mein Handy ständig kommuniziert, wo ich gerade bin und diese Information einem ausgewählten Personenkreis zugängig macht. Dass mein Kalender intelligent wird und meldet, dass ein Freund zur gleichen Zeit in der Stadt ist. Vielleicht schlägt er dann vor: ,Wollt ihr euch da nicht treffen?' Solche Funktionen werden so normal sein, dass man im Prinzip ständig online ist, ohne dass es sich so anfühlt." Teilweise gibt es so etwas schon. Google hat mit "Latitude" gerade einen Ortungsdienst fürs Handy vorgestellt. Die Software sorgt dafür, dass ausgewählten Personen per Google Maps angezeigt wird, wo sich der Handybesitzer gerade aufhält. Der technophile Obama würde den Dienst wahrscheinlich mögen. Doch der Geheimdienst NSA wollte ihm sogar schon den Blackberry wegnehmen - damit der mächtigste Mann der Welt eben nicht ständig geortet werden kann."
    Field
    Kommunikationswissenschaften
  19. Löhrer, G.: Der Anti-Dualismus, sein Vokabular und dessen Ambiguität : eine methodische Bemerkung zu Searles monistischen Auffassungen in der Philosophie des Geistes (2005) 0.01
    0.007601843 = product of:
      0.05701382 = sum of:
        0.022260573 = weight(_text_:und in 4505) [ClassicSimilarity], result of:
          0.022260573 = score(doc=4505,freq=12.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.35989314 = fieldWeight in 4505, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4505)
        0.034753248 = weight(_text_:des in 4505) [ClassicSimilarity], result of:
          0.034753248 = score(doc=4505,freq=12.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.4496795 = fieldWeight in 4505, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4505)
      0.13333334 = coord(2/15)
    
    Abstract
    Wie passen mentale Phänomene wie Bewusstsein, Intentionalität und mentale Verursachung zum "Rest des Universums" und wie bringen wir unsere Theorien dieser Phänomene im Gebäude unserer übrigen Welterklärungen unter? Wie muss eine Theorie aussehen, die wissenschaftlichen Ansprüchen und neurowissenschaftlichen Erkenntnissen gerecht wird, ohne grundlegende Intuitionen und bewusste, subjektive wie qualitative Erfahrungen des Mentalen zu unterdrücken oder zu marginalisieren? - John Rogers Searle vertritt in seinem Buch Mind eine in Teilen verfeinerte Version jenes geschmeidigen Monismus, der auch seine früheren Arbeiten zur Philosophie des Geistes kennzeichnet. Ziel seiner Überlegungen ist eine, "biological naturalism" genannte, umfassende und einheitliche Theorie des Mentalen, die er für die Philosophie als das Projekt menschlicher Selbstverständigung für vordringlich hält. In ihrem Zentrum wiederum steht eine Theorie des Bewusstseins.
  20. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.01
    0.007418591 = product of:
      0.05563943 = sum of:
        0.027263524 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.027263524 = score(doc=4322,freq=18.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.028375909 = weight(_text_:des in 4322) [ClassicSimilarity], result of:
          0.028375909 = score(doc=4322,freq=8.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.36716178 = fieldWeight in 4322, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.13333334 = coord(2/15)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit

Languages

  • d 184
  • e 87
  • el 2
  • More… Less…

Types

  • a 47
  • i 30
  • x 14
  • m 12
  • r 6
  • n 4
  • b 2
  • l 2
  • s 1
  • More… Less…

Classifications