Search (1908 results, page 1 of 96)

  • × language_ss:"e"
  • × year_i:[2000 TO 2010}
  1. Bekavac, B.; Herget, J.; Hierl, S.; Öttl, S.: Visualisierungskomponenten bei webbasierten Suchmaschinen : Methoden, Kriterien und ein Marktüberblick (2007) 0.10
    0.103189 = product of:
      0.206378 = sum of:
        0.039550725 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.039550725 = score(doc=399,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 399, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.08172335 = weight(_text_:methoden in 399) [ClassicSimilarity], result of:
          0.08172335 = score(doc=399,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.04555321 = weight(_text_:der in 399) [ClassicSimilarity], result of:
          0.04555321 = score(doc=399,freq=18.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.5182773 = fieldWeight in 399, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.039550725 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.039550725 = score(doc=399,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 399, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
      0.5 = coord(4/8)
    
    Abstract
    Bei webbasierten Suchmaschinen werden zunehmend auch Systeme mit Visualisierungskomponenten für die Ergebnisrepräsentation angeboten. Die Ansätze der Visualisierungen unterscheiden sich hierbei in der Zielsetzung und Ausführung deutlich voneinander. Der folgende Beitrag beschreibt die verwendeten Visualisierungsmethoden, systematisiert diese anhand einer Klassifikation, stellt die führenden frei zugänglichen Systeme vor und vergleicht diese anhand der Kriterien aus der Systematisierung. Die typischen Problemfelder werden identifiziert und die wichtigsten Gemeinsamkeiten und Unterschiede der untersuchten Systeme herausgearbeitet. Die Vorstellung zweier innovativer Visualisierungskonzepte im Bereich der Relationenvisualisierung innerhalb von Treffermengen und der Visualisierung von Relationen bei der Suche nach Musik schließen den Beitrag ab.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.149-158
  2. Mair, M.: Increasing the value of meta data by using associative semantic networks (2002) 0.10
    0.10246315 = product of:
      0.16394104 = sum of:
        0.02562646 = weight(_text_:und in 4972) [ClassicSimilarity], result of:
          0.02562646 = score(doc=4972,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29385152 = fieldWeight in 4972, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.070048586 = weight(_text_:methoden in 4972) [ClassicSimilarity], result of:
          0.070048586 = score(doc=4972,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 4972, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.031880606 = weight(_text_:der in 4972) [ClassicSimilarity], result of:
          0.031880606 = score(doc=4972,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.36271852 = fieldWeight in 4972, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.02562646 = weight(_text_:und in 4972) [ClassicSimilarity], result of:
          0.02562646 = score(doc=4972,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29385152 = fieldWeight in 4972, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.010758916 = product of:
          0.032276746 = sum of:
            0.032276746 = weight(_text_:29 in 4972) [ClassicSimilarity], result of:
              0.032276746 = score(doc=4972,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23319192 = fieldWeight in 4972, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4972)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Momentan verbreitete Methoden zur Strukturierung von Information können ihre Aufgabe immer schlechter befriedigend erfüllen. Der Grund dafür ist das explosive Wachstum menschlichen Wissens. Diese Diplomarbeit schlägt als einen möglichen Ausweg die Verwendung assoziativer semantischer Netzwerke vor. Maschinelles Wissensmanagement kann wesentlich intuitiver und einfacher benutzbar werden, wenn man sich die Art und Weise zunutze macht, mit der das menschliche Gehirn Informationen verarbeitet (im Speziellen assoziative Verbindungen). Der theoretische Teil dieser Arbeit diskutiert verschiedene Aspekte eines möglichen Designs eines semantischen Netzwerks mit assoziativen Verbindungen. Außer den Grundelementen und Problemen der Visualisierung werden hauptsächlich Verbesserungen ausgearbeitet, welche ein leistungsstarkes Arbeiten mit einem solchen Netzwerk erlauben. Im praktischen Teil wird ein Netzwerk-Prototyp mit den wichtigsten herausgearbeiteten Merkmalen implementiert. Die Basis der Applikation bildet der Hyperwave Information Server. Dieser detailiiertere Design-Teil gewährt tieferen Einblick in Software Requirements, Use Cases und teilweise auch in Klassendetails. Am Ende wird eine kurze Einführung in die Benutzung des implementierten Prototypen gegeben.
    Date
    17. 3.2006 19:24:29
  3. Memmel, T.: User interface specification for interactive software systems : process-, method- and tool-support for interdisciplinary and collaborative requirements modelling and prototyping-driven user interface specification (2009) 0.10
    0.10040813 = product of:
      0.16065301 = sum of:
        0.028651254 = weight(_text_:und in 4093) [ClassicSimilarity], result of:
          0.028651254 = score(doc=4093,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.328536 = fieldWeight in 4093, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.070048586 = weight(_text_:methoden in 4093) [ClassicSimilarity], result of:
          0.070048586 = score(doc=4093,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 4093, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.022542994 = weight(_text_:der in 4093) [ClassicSimilarity], result of:
          0.022542994 = score(doc=4093,freq=6.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.25648075 = fieldWeight in 4093, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.028651254 = weight(_text_:und in 4093) [ClassicSimilarity], result of:
          0.028651254 = score(doc=4093,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.328536 = fieldWeight in 4093, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.010758916 = product of:
          0.032276746 = sum of:
            0.032276746 = weight(_text_:29 in 4093) [ClassicSimilarity], result of:
              0.032276746 = score(doc=4093,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23319192 = fieldWeight in 4093, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4093)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    User-Interface-Spezifikationsprozesse involvieren unterschiedliche Akteure mit jeweils eigenen Ausdrucksmitteln. Dadurch ergeben sich Herausforderungen bei der Umsetzung von Anforderungen in gutes UI-Design. Durch einen Mangel an interdisziplinären und kollaborativen Methoden und Werkzeugen dominieren dabei vor allem textbasierte Spezifikationsdokumente. Diese reichen jedoch mangels Interaktivität nicht aus, um innovative und kreative Prozesse zu unterstützen. In diesem Buch wird eine Spezifikationstechnik vorgestellt, mit der Benutzer-, Aufgaben- und Interaktionsmodelle mit unterschiedlich detailliertem UI-Design verbunden werden. Dadurch entsteht eine erlebbare UI-Simulation, die im Vergleich zu interaktiven UI-Prototypen zusätzlich den visuellen Drill-Down zu Artefakten der Anforderungsermittlung erlaubt. Das Resultat sind interaktive UI-Spezifikationen, mit denen eine höhere Transparenz und Nachvollziehbarkeit im Spezifikationsprozess möglich sind.
    Date
    15. 7.2011 18:13:29
  4. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.10
    0.098224215 = product of:
      0.15715875 = sum of:
        0.031961814 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.031961814 = score(doc=2789,freq=112.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.36649725 = fieldWeight in 2789, product of:
              10.583005 = tf(freq=112.0), with freq of:
                112.0 = termFreq=112.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.02334953 = weight(_text_:methoden in 2789) [ClassicSimilarity], result of:
          0.02334953 = score(doc=2789,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.11451096 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.029424468 = weight(_text_:der in 2789) [ClassicSimilarity], result of:
          0.029424468 = score(doc=2789,freq=92.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.33477405 = fieldWeight in 2789, product of:
              9.591663 = tf(freq=92.0), with freq of:
                92.0 = termFreq=92.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.040461127 = weight(_text_:sprach in 2789) [ClassicSimilarity], result of:
          0.040461127 = score(doc=2789,freq=2.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.15073948 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.031961814 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.031961814 = score(doc=2789,freq=112.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.36649725 = fieldWeight in 2789, product of:
              10.583005 = tf(freq=112.0), with freq of:
                112.0 = termFreq=112.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
      0.625 = coord(5/8)
    
    Content
    "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
    Neben die Pflege der Standards tritt als Herausforderung die Vernetzung der Systeme, um heterogene Dokumentenbestände zu verbinden. »Standardisierung muss von der verbleibenden Heterogenität her gedacht werden«." Diese Aufgaben können nur in Kooperation von Bibliotheken und Informationseinrichtungen gelöst werden. Die vorgestellten Projekte zeigen, wie dies gelingen kann. Sie verfolgen alle das Ziel, Informationen über Inhalte schneller und besser für die Nutzer zur Verfügung zu stellen. Fachliche Recherchen über mehrere Informationsanbieter werden durch die Heterogenität überwindende Suchdienste ermöglicht. Die Einführung der DDC im deutschen Sprachraum steht genau im Kern des Spannungsfeldes. Die DDC stellt durch ihren universalen Charakter nicht nur einen übergreifenden Standard her. Ihre Anwendung ist nur nutzbringend, wenn zugleich die Vernetzung mit den in Deutschland bewährten Klassifikationen und Thesauri erfolgt. Ziel des Projektes DDC Deutsch ist nicht nur eine Übersetzung ins Deutsche, die DDC soll auch in Form elektronischer Dienste zur Verfügung gestellt werden. Dr. Lars Svensson, Deutsche Bibliothek Frankfurt am Main, präsentierte anschaulichdie Möglichkeiten einer intelligenten Navigation über die DDC. Für die Dokumentenbestände Der Deutschen Bibliothek, des Gemeinsamen Bibliotheksverbundes (GBV) und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen wurde prototypisch ein Webservice realisiert.
    Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
    Es wurden immer zwei Klassifikationen aufeinander abgebildet und die jeweiligen Klassen (Notationen) miteinander verknüpft. Friedrich Geißelmann unterstrich die Notwendigkeit weiterer Crosswalks für die integrierte, insbesondere fachübergreifende Suche, wie sie im Internetportal vascoda angeboten wird. Stefan Jakowatz, Informationszentrum Sozialwissenschaften (IZ) Bonn, informierte über die Arbeiten des IZ im Bereich der Heterogenitätsbehandlung. Er stellte die in CARMEN erarbeiteten Crosskonkordanzen im Bereich Thesauri vor. Hier wurden Crosskonkordanzen zwischen der SWD, dem Thesaurus Sozialwissenschaften des IZ und der Schlagwortliste des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) erstellt. Begriffe aus der Soziologie, Methoden der Sozialforschung, Politikwissenschaft und Bildungsforschung bildeten das Basismaterial. Zusätzlich liegen inzwischen am IZ Verknüpfungen zum Psyndex-Thesaurus und zum Thesaurus der Sociological Abstracts (CSA) vor. Transferkomponenten wurden am IZ Sozialwissenschaften nicht nur durch intellektuell erstellte Crosskonkordanzen, sondern auch mittels quantitativ-statistischer Analysen von Titeldaten geschaffen. Eingesetzt werden diese in der Metasuche der virtuellen Fachbibliothek VibSoz. Dort erfolgt die Suche nach sozialwissenschaftlicher Literatur über die Kernbestände von fünf verschiedenen Bibliotheken und Fachdatenbanken. Die Suchanfragen werden automatisch in die jeweils andere Terminologie übersetzt und führen die Treffer in einer integrierten Liste zusammen. Ähnlich arbeiten die Transfermodule in infoconnex", dem Fachinformationsverbund für Pädagogik, Sozialwissenschaften und Psychologie. Auch hier wird durch die Crosskonkordanzen eine effiziente fachübergreifende Recherche angeboten.
    Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.
    Wie kann man den Suchenden einen einheitlichen Zugriff auf Inhalte bieten, ganz gleich, in welchem System und mit welcher Methode sie erschlossen sind? Diese Frage hat die Vortragsreihe in unterschiedlichen Ansätzen untersucht. Die bewährten Orientierungssysteme sind für den Zugriff der Benutzer auf verteilte und auch fachübergreifende Bestände nicht mehr ausreichend. Einheitliche und einfache Zugänge zu Informationen in der Onlinewelt erfordern die Integration der vorhandenen Klassifikationen und Thesauri. Solche Transferkomponenten können die verschiedenen Schalen der Inhaltserschließung - verschiedene Erschließungsqualitäten und -niveaus - zusammenführen. Sie helfen Konsistenzbrüche auszugleichen und unsere Erschließungsdaten optimal anzubieten."
  5. OCLC PICA übernimmt die Sisis Informationssysteme (2005) 0.10
    0.09690407 = product of:
      0.19380814 = sum of:
        0.04893133 = weight(_text_:und in 4212) [ClassicSimilarity], result of:
          0.04893133 = score(doc=4212,freq=42.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.561082 = fieldWeight in 4212, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4212)
        0.058373824 = weight(_text_:methoden in 4212) [ClassicSimilarity], result of:
          0.058373824 = score(doc=4212,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.2862774 = fieldWeight in 4212, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4212)
        0.037571654 = weight(_text_:der in 4212) [ClassicSimilarity], result of:
          0.037571654 = score(doc=4212,freq=24.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.42746788 = fieldWeight in 4212, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4212)
        0.04893133 = weight(_text_:und in 4212) [ClassicSimilarity], result of:
          0.04893133 = score(doc=4212,freq=42.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.561082 = fieldWeight in 4212, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4212)
      0.5 = coord(4/8)
    
    Abstract
    Mit dem Ziel, ihre Position als einer der führenden Hersteller von Bibliothekssystemen weiter auszubauen, übernimmt die OCLC PICA B.V. in Leiden (NL) die Sisis Informationssysteme GmbH in Oberhaching. Beide Unternehmen ergänzen sich hervorragend in technologischer Hinsichtwie auch im Servicebereich. Durch die entstehenden Synergien kann die neue, gestärkte Organisation ihre Produkte und Services künftig noch schneller und wirtschaftlicher anbieten.
    Content
    "Der stetige Wandel macht auch vor Bibliotheken nicht Halt. Immer wichtiger werden neue Geschäftsprozesse und die optimale Vernetzung der unterschiedlichen Arbeitsbereiche. Das Behaupten der Spitzenposition in diesem Markt erfordert ständige Investitionen und Ausbau der Ressourcen. Mit der Obernahme der Sisis Informationssysteme GmbH und den dort vorhandenen Kenntnissen und Fähigkeiten wurde ein effizienter Weg gefunden, die gegenwärtige Marktposition auszubauen und die Produktqualität weiter zu verbessern. Die Sisis Informationssysteme ist ein im Markt bekannter und erfolgreicher Anbieter von Bibliothekssystemen und Portallösungen mit Kunden in Deutschland, der Schweiz und den Niederlanden. Wie OCLC PICA suchte auch das Sisis Management nach Lösungen, um weiterhin in Produkte und Marktentwicklungen zu investieren und die erreichte Marktposition und Produktqualität auszubauen. Der erfolgte Zusammenschluss bietet hierfür die besten Voraussetzungen. Künftig werden OCLC PICA und Sisis ihre Technologien, Fähigkeiten und Methoden zum Vorteil ihrer Kunden gemeinsam nutzen und aufeinander abstimmen und einen besseren und vor allem kundennäheren Service anbieten können. Durch die Verstärkung des Entwicklungsbereichs kann der Ausbau der vorhandenen Produkte fachlich und funktional vorangetrieben werden. Die Kunden werden von der wechselseitigen Nutzung innovativer Komponenten und dem erweiterten Produktportfolio nur profitieren."
    Footnote
    Vgl.: www. oclcpica.org und www.sisis.de
  6. Höhfeld, S.; Kwiatkowski, M.: Empfehlungssysteme aus informationswissenschaftlicher Sicht : State of the Art (2007) 0.09
    0.08848308 = product of:
      0.17696616 = sum of:
        0.03624129 = weight(_text_:und in 503) [ClassicSimilarity], result of:
          0.03624129 = score(doc=503,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41556883 = fieldWeight in 503, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=503)
        0.070048586 = weight(_text_:methoden in 503) [ClassicSimilarity], result of:
          0.070048586 = score(doc=503,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=503)
        0.034434993 = weight(_text_:der in 503) [ClassicSimilarity], result of:
          0.034434993 = score(doc=503,freq=14.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.3917808 = fieldWeight in 503, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=503)
        0.03624129 = weight(_text_:und in 503) [ClassicSimilarity], result of:
          0.03624129 = score(doc=503,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41556883 = fieldWeight in 503, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=503)
      0.5 = coord(4/8)
    
    Abstract
    Empfehlungssysteme tragen Inhalte individuell an Nutzer im WWW heran, basierend auf deren konkreten Bedürfnissen, Vorlieben und Interessen. Solche Systeme können Produkte, Services, Nutzer (mit analogen Interessen) uvm. vorschlagen und stellen damit - gerade im Web 2.0-Zeitalter - eine besondere Form der Personalisierung sowie des social networking dar. Damit bieten Empfehlungssysteme Anbietern im E-Commerce einen entscheidenden Marktvorteil, weshalb die Auswertung der Kundendaten bei großen Firmen wie Amazon, Google oder Ebay eine hohe Priorität besitzt. Aus diesem Grund wird im vorliegenden Artikel auf die Ansätze von Empfehlungssystemen, welche auf unterschiedliche Weise die Bedürfnisse des Nutzers aufgreifen bzw. "vorausahnen" und ihm Vorschläge (aus verschiedenen Bereichen) unterbreiten können, eingegangen. Der Artikel liefert eine Definition und Darstellung der Arbeitsweisen von Empfehlungssystemen. Dabei werden die verschiedenen Methodiken jener Dienste vergleichend erläutert, um ihre jeweiligen Vor- und Nachteile deutlich zu machen. Außerdem wird der Ontologie- und Folksonomy-Einsatz innerhalb von Empfehlungssystemen beleuchtet, um Chancen und Risiken der Anwendung von Methoden der Wissensrepräsentation für zukünftige Forschungsarbeiten einschätzen zu können.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.5, S.265-276
  7. Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005) 0.09
    0.08817218 = product of:
      0.14107549 = sum of:
        0.027348235 = weight(_text_:und in 3675) [ClassicSimilarity], result of:
          0.027348235 = score(doc=3675,freq=82.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.31359464 = fieldWeight in 3675, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.039762102 = weight(_text_:der in 3675) [ClassicSimilarity], result of:
          0.039762102 = score(doc=3675,freq=168.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.45238948 = fieldWeight in 3675, product of:
              12.961481 = tf(freq=168.0), with freq of:
                168.0 = termFreq=168.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.040461127 = weight(_text_:sprach in 3675) [ClassicSimilarity], result of:
          0.040461127 = score(doc=3675,freq=2.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.15073948 = fieldWeight in 3675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.027348235 = weight(_text_:und in 3675) [ClassicSimilarity], result of:
          0.027348235 = score(doc=3675,freq=82.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.31359464 = fieldWeight in 3675, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.0061557847 = product of:
          0.018467354 = sum of:
            0.018467354 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
              0.018467354 = score(doc=3675,freq=6.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.1340265 = fieldWeight in 3675, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3675)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Content
    "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
    Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
    Anerkennung für die Leistung des deutschen Teams sprach auch aus dem Vortrag von Julianne Beall von der LoC, die als Beauftragte von OCLC und Assistent Editor der DDC die Interessen des amerikanischen Partners an einer möglichst großen Nähe zum amerikanischen Original zu vertreten hatte. Dort zeigte man bei vielen deutschen Vorschlägen Verständnis und Entgegenkommen, sofern das Grundprinzip »The same DDC must be the same in every language« gewahrt wurde. Dass Kroaten und Bosnier hierzulande als getrennte Volksgruppen behandelt werden, wurde ebenso hingenommen wie die Tatsache, dass das deutsche Kegeln vom amerikanischen Bowling zu unterscheiden ist. Außerdem wurde anerkannt, dass die deutsche CDU den konservativen Parteien zuzurechnen ist und nicht dem, was nach amerikanischem Verständnis eine religiöse Partei charakterisiert. Mitunter, so Beall, sei man von deutscher Seite auch auf Fehler der amerikanischen Edition, etwa bei der Zuordnung europäischer Geografika, aufmerksam gemacht worden - Hinweise, die man dankbar zur Kenntnis genommen habe. Im Folgenden stellten Lars Svensson und Renate Polak-Bennemann von der IT-Abteilung der Deutschen Bibliothek Frankfurt am Main ein weiteres wichtiges Resultat des Projekts DDC Deutsch vor. Parallel zur Übersetzungsarbeit wurde ein Webservice entwickelt, der neben einem Klassifikationstool als wichtiges Hilfsmittel für Sacherschließer auch ein in konventionelle Bibliotheks-OPACs integrierbares Rechercheinstrument für Bibliotheksbenutzer enthalten wird. Die einzelnen Tools, die von Der Deutschen Bibliothek vertrieben werden, firmieren alle unter dem durch den Vornamen des DDC-Erfinders Dewey inspirierten Namen Melvil. Während das zentral bei Der Deutschen Bibliothek betriebene Tool MelvilClass zu einer erheblichen Erleichterung des aufwändigen Klassifikationsverfahrens beitragen soll, stellt MelvilSearch ein gleichermaßen zentral (bei Der Deutschen Bibliothek) wie lokal (z. B. in den Verbundzentralen) einsetzbares Recherchetool dar. MelvilSoap soll als Datenschnittstelle die Integration der DDC-Recherche in lokale Bibliothekssysteme ermöglichen.
    Wie es nach dem Vorhandensein von Übersetzung und Webservice mit der DDC Deutsch konkret weitergeht, stand im Mittelpunkt der Ausführungen von Heidrun Alex, der DDC-Projektkoordinatorin an Der Deutschen Bibliothek. Sie erläuterte den Zeitplan für das Erscheinen der Druckausgabe und die Melvil-Lizenzierung und skizzierte die weitere Planung hinsichtlich des Ausbaus und der Pflege der deutschen DDC-Datenbank, die wiederum in enger Zusammenarbeit mit OCLC erfolgen soll. Sie betonte die Wichtigkeit von Nutzerrückmeldungen für eine kontinuierliche Verbesserung des Angebots und wies auf die von Der Deutschen Bibliothek künftig regelmäßig in Frankfurt am Main oder ggf. vor Ort angebotenen Fortbildungsveranstaltungen zur Klassifikation mit der DDC hin. Der Qualitätssicherung bei der DDC-Arbeit dient auch eine von Der Deutschen Bibliothek für Anfang 2006 geplante Reihe von Veranstaltungen, bei denen sich Bibliothekare, die mit der DDC klassifizieren, zu einem fachbezogenen Erfahrungsaustausch zusammenfinden können. Daran anknüpfend erläuterte Magda HeinerFreiling den künftigen Einsatz der DDC Deutsch innerhalb der Deutschen Nationalbibliografie. Ab Bibliografiejahrgang 2006 werden zunächst die - bisher nur partiell durch Beschlagwortung inhaltlich erfassten - Publikationen der Reihen B und H vollständig mit der DDC erschlossen. Ab Bibliografiejahrgang 2007 erhalten dann auch die Publikationen der Reihe A DDC-Notationen; unberücksichtigt bleiben lediglich belletristische Werke, Erbauungsliteratur, Schulbücher sowie die Kinder- und Jugendliteratur. Magda Heiner-Freiling stellte klar, dass der Einsatz der DDC in Der Deutschen Bibliothek keine Abkehr von der verbalen Sacherschließung markiere. Vielmehr werde das Nebeneinander von DDC und der Schlagwortnormdatei (SWD) es ermöglichen, das bibliothekarische Grundprinzip einer Verbindung von klassifikatorischer und verbaler Sacherschließung umfassend zu realisieren.
    Die folgenden Referate dienten allesamt dem Ziel, den sich im bisherigen Verlauf des Workshops gelegentlich einstellenden Eindruck eines lediglich bilateralen - auf den deutsch-amerikanischen Kontakt bezogenen - Aufgabenfelds in einen umfassenderen Kontext einzubetten. Den Anfang machte der Vortrag von Patrice Landry, der als Leiter der Sacherschließung an der SLB bereits seit Ende der 90er-Jahre mit der amerikanischen DDC arbeitet. Landry betonte, dass sich derbisher nur eingeschränkt vollzogene - Einsatz der DDC in der SLB bewährt habe, und hob nachdrücklich die Vorteile einer numerisch orientierten Erschließung in einem auf eine mehrsprachige Gesellschaft ausgerichteten Bibliothekssystem hervor. Mit der DDC Deutsch verbindet Patrice Landry große Erwartungen; seiner Ansicht nach wird sie eine entscheidende Auswirkung auf den Einsatz der DDC in allen deutschsprachigen Bibliotheken haben. Mit Lucy Evans von der British Library, Boston Spa, kam die Vertreterin eines Landes zu Wort, das die bisher umfassendsten Erfahrungen mit der DDC auf europäischem Gebiet aufzuweisen hat. In Großbritannien ist die DDC seit den 20er-Jahren des vergangenen Jahrhunderts das dominante Klassifikationssystem und bestimmt dort auch die Aufstellung in den meisten öffentlichen Bibliotheken. Die British National Bibliography hat seit ihrem ersten Publikationsjahrgang 1950 auf die DDC zurückgegriffen und den Umfang des DDC-Einsatzes beständig ausgeweitet, sodass in naher Zukunft auch graue Literatur und digitale Publikationen mit der DDC erschlossen werden sollen.
    Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."
  8. Hauer, M.: Collaborative catalog enrichment : 4. Benutzertreffen intelligentCAPTURE / dandelon.com (2007) 0.09
    0.085645854 = product of:
      0.17129171 = sum of:
        0.03505797 = weight(_text_:und in 515) [ClassicSimilarity], result of:
          0.03505797 = score(doc=515,freq=44.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.40200004 = fieldWeight in 515, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=515)
        0.030368807 = weight(_text_:der in 515) [ClassicSimilarity], result of:
          0.030368807 = score(doc=515,freq=32.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.34551817 = fieldWeight in 515, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=515)
        0.07080698 = weight(_text_:sprach in 515) [ClassicSimilarity], result of:
          0.07080698 = score(doc=515,freq=2.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.2637941 = fieldWeight in 515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.02734375 = fieldNorm(doc=515)
        0.03505797 = weight(_text_:und in 515) [ClassicSimilarity], result of:
          0.03505797 = score(doc=515,freq=44.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.40200004 = fieldWeight in 515, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=515)
      0.5 = coord(4/8)
    
    Abstract
    dandelon.com hat im deutschsprachigen Raum die Suche nach wissenschaftlichen Büchern revolutioniert. Durch Scanning und Digitalisierung von Inhaltsverzeichnissen entsteht eine neue Qualität bei der wissenschaftlichen Literatursuche. Dahinter steckt mehr als eine einfache Volltextsuche, die Texte werden linguistisch analysiert und die Fragen mittels eines intellektuell konstruierten, großen semantischen Netzes mit 1,6 Millionen Fachbegriffen in 20 Sprachen interpretiert. Die gesamte Produktion geschieht kooperativ, länderübergreifend und ist offen für Bibliotheken, Dokumentationszentren, Verlage, Bücherhändler und andere Partner. Die Suche ist öffentlich und kostenfrei.
    Content
    "AGI - Information Management Consultants (www.agi-imc.de) hatte am 8. und 9. Mai 2007 zum vierten Mal Bibliotheken und Partner zum Erfahrungsaustausch nach Neustadt an der Weinstraße eingeladen. Die angereisten Teilnehmer betreiben bereits mittels intelligentCAPTURE die Produktion und über dandelon.com den Austausch und die Publikation (www.dandelon.com). Mittlerweile wird intelligentCAPTURE in Deutschland, Österreich, Liechtenstein, Italien und in der Schweiz eingesetzt. Die PDF-Dateien gelangen über einen Partner bis zur weltgrößten Bibliothek, der Library of Congress in Washington. In Deutschland ist der GBV - Gemeinsamer Bibliotheksverband in Göttingen (www.gbv.de) Partner von AGI und der größte Sekundärnutzer von dandelon.com. In dandelon.com sind derzeit über 220.000 Bücher suchbar, die Datenbank wächst täglich. Weitere 62.000 Titel werden nach einem Software-Update demnächst geladen; sie stammen aus Projekten mit der Staats-und Universitätsbibliothek Hamburg und der TIB Hannover. Vergleichbare Scanprojekte laufen derzeit in einer Spezialbibliothek in Hamburg, der UB Braunschweig und UB Mainz. AGI geht von 400 bis 500.000 Buchtiteln bis Ende 2007 aus. Erstmals sahen die Teilnehmer "intelligentCAPTURE mobile". Eine Lösung, welche die Scanner selbst zwischen die engsten Regale fährt und somit erheblich den Transportaufwand reduziert - der Scanner wird zum Buch transportiert, nicht Tonnen von Büchern zu Scannern. Gemeinsam mit dem führenden Anbieter von Bibliothekseinrichtungen Schulz Speyer (www.schulzspeyer.de) wurde intelligentCAPTURE mobil gemacht.
    Bis zu 530 Bücherinhaltsverzeichnisse wurden bisher von einer Person an einem Tag damit produziert. Rund 1.000 Bücher pro Tag ist die durchschnittliche Menge bei einem Scanteam mit drei Scanstationen. Digitalisiert wird immer nur der urheberrechtsfreie bzw. durch Lizenzierung zulässige Bereich. Neben Büchern werden auch Zeitschriften ausgewertet. So sind z.B. die Aufsätze aus der Zeitschrift "IWP - Information. Wissenschaft und Praxis" der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (http://www.dgi-info.de) komplett digital - und einige auch mit MP3Hördateien ergänzt. Anwendung finden seit 2006 die Lösungen von AGI auch in der Suche von Parlamentsmaterialien, also in der öffentlichen Verwaltung - konkret dem wirtschaftlich erfolgreichsten Bundesland Österreichs, Vorarlberg. Diese Leistung wird als Dienstleistung der Vorarlberger Landesbibliothek (http://vlb-katalog.vorarlberg.de) erbracht (www.vorarlberg.at/landtag/landtag/parlamentarischematerialien/recherche.htm)
    Das Highlight unter den Referaten bei dieser Tagung waren die Ausführungen des Vordenkers Andreas Prokoph, Lead Architect - Search Technologies and Portal Server Development, vom deutschen IBM Entwicklungslabor. Er sprach über Information Retrieval. Mit über 200 Patenten, darunter auch seinen eigenen, liegt IBM in diesem Forschungsfeld weit vorne. Die IBM Suchmaschine OMNIFIND soll möglichst bald die Suchtechnik hinter dandelon.com ersetzen und den Suchraum auf Kataloge, Open Archives, Verlage, Hochschul-Server ausdehnen. Schon heute basieren intelligentCAPTURE und dandelon.com weitgehend auf IBM-Technologien, konkret Lotus Notes & Domino und Lotus Sametime (www.ibm.corn/ lotus/hannover), aber auch auf integrierten Modulen anderer international führender Technologiespezialisten."
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.5, S.311
  9. Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen : Proceedings der 8. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Regensburg, 9.-11. Oktober 2002 (2004) 0.08
    0.0848114 = product of:
      0.1696228 = sum of:
        0.033900622 = weight(_text_:und in 5864) [ClassicSimilarity], result of:
          0.033900622 = score(doc=5864,freq=56.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.38872904 = fieldWeight in 5864, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
        0.06066386 = weight(_text_:methoden in 5864) [ClassicSimilarity], result of:
          0.06066386 = score(doc=5864,freq=6.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.29750824 = fieldWeight in 5864, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
        0.04115769 = weight(_text_:der in 5864) [ClassicSimilarity], result of:
          0.04115769 = score(doc=5864,freq=80.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.46826762 = fieldWeight in 5864, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
        0.033900622 = weight(_text_:und in 5864) [ClassicSimilarity], result of:
          0.033900622 = score(doc=5864,freq=56.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.38872904 = fieldWeight in 5864, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
      0.5 = coord(4/8)
    
    Abstract
    Mit der Entwicklung von Wissen und weltweiter Kommunikation kommt der Wissensorganisation zunehmend eine Schlüsselrolle zu. Einerseits geht es darum, zu verstehen, was Wissen ist und wie es strukturiert ist, andererseits möchte man die Technik der elektronischen Darstellung und Wiederauffindung des Wissens über den gegenwärtigen Stand hinaus weiterentwickeln. Dabei geht es um vielfältige Anwendungen, z. B. Wissensvertextung, Forschungsunterstützung, Bereitstellung von Wissen in Arbeits- und Entscheidungsprozessen, Weiterbildung, Ordnung, Wissenverknüpfung, Innovationsförderung und anderes. Schwerpunkt der Fachtagung Wissensorganisation 2002 sollte darum unter dem Motto "Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen", in Weiterführung ähnlicher Themen von den beiden vorhergehenden Tagungen, Methoden der Wissensorganisation und den Nutzen ihrer Anwendung im Rahmen von eLearning-Aktivitäten beleuchten sowie andererseits eLearning-Methoden für die Wissensorganisation aufgreifen. Didaktische Modelle wie etwa die Lernontologien stehen dabei ebenso zur Debatte wie Anwendungen von Werkzeugen der Wissensmodellierung oder der begrifflichen Wissensstrukturierung. Ziel soll es sein, den Beitrag der Wissensorganisation zur Entwicklung von Arbeitstechniken und neuer Lernkulturen herauszuarbeiten und gleichzeitig auch didaktische Konzepte für die Wissensorganisation fruchtbar zu machen. Folgende Thematiken können die Ausrichtung dieses Vorhabens beispielhaft skizzieren: - Terminologische Kontrolle in Online-Lernumgebungen - Wie zu organisieren ist (zu Verfahren der Wissensanordnung) - Grundlagen für die Gestaltung von Wissensorganisations- und Lernsystem - Der Benutzer als Lerner - der Lerner als Benutzer - Lehrer als Autoren (der Blick auf den Wissensproduzenten) Die Thematisierung praktischer Arbeitsfelder und Werkzeuge, z. B. die Metadatenorganisation mit XML, werden ergänzt durch vertiefende Reflexion über Wissen. Damit sollen Anregungen zur Konzeption neuer Wissenssysteme zusammengetragen werden. Hier stellen sich Fragen nach der Zerlegbarkeit des Wissens, der Bestimmung der Wissenseinheiten, der Sprachinvarianz des Wissens, der Wissensformalisierung, der punktgenauen Wissensbereitstellung zu spezifischen Problemen usw. Auch zu der Aufgabe, die Gesamtheit und Ganzheit des Wissens zu gewährleisten, werden Antworten gesucht. Der vorliegende Band enthält 20 Beiträge, inklusive drei ausgearbeiteten Versionen von Vorträgen, die zwar auf der 7. Deutschen ISKO Tagung 2001 in Berlin gehalten wurden, aber sich in das hier vorgehaltene Spektrum gut einpassen (von Maik Adomßent zu Lernenden Verwaltungen, von Alfred Gerstenkorn zu Verstehensmanagement und von Christina Rautenstrauch zu Tele-Tutoring). Weiter ist ein Beitrag von Thomas Sporer hinzugefügt worden, der die während der Tagung durchgeführte Video-Dokumentation beleuchtet, sowie ein Beitrag von Peter Ohly zu Semantischen Karten, der im Programm der vorherigen Tagung ausgewiesen war, aber wegen Programmänderungen erst 2002 in Regensburg vorgetragen wurde. Der Vortrag von Norbert Meder zu Metadaten für Lernende Verwaltungen wird 2004 in der Festschrift für Klaus Peter Treumann (Uni Bielefeld) veröffentlicht werden und der Beitrag von Christian Swertz zu Kooperativer Autorenschaft ist zu einem späteren Zeitpunkt zur Veröffentlichung vorgesehen.
    Content
    Enthält die Beiträge: 1. Grundlagen der Wissensorganisation Ingetraut DAHLBERG: Ontische Strukturen und Wissensmuster in der Wissensorganisation S.3 Gerd BAUER: Graphische Darstellung interdisziplinärer Wissensstrukturen S.15 Roland WAGNER_DÖBLER: Kognitive Mobilität und Zipfs "Principle of Least Effort" S.23 Gerhard RAHMSTORF: Übersicht über Methoden der Wissensorganisation S.33 Hannelore SCHOTT, Albert SCHRÖDER: Crosskonkordanzen von Klassifikationen und Thesauri S.41 2. Lehre und Lernen Alfred GERSTENKORN (von Berlin 2001): Wissensmanagement braucht Verstehensmanagement - Konzeption eines Instrumentariums zum Verstehen von Fachtexten für Experten, Neulinge und begrifflich geschulte Fachfremde S.53 Giselher H.J. REDEKER: Learning Objects - Sequenzierung auf Grundlage pädagogischer Metadaten S.67 Alois WACKER, Thorsten KOCH: "Die Arbeitslosen von Marienthal" - Ein Klassiker der Sozialforschung als multimediale Lerneinheit S.83 Christina RAUTENSTRAUCH (von Berlin 2001): Tele-Tutoring - Zur Didaktik des kommunikativen Handelns im virtuellen Lernraum S.93 Gerhard BUDIN: Mehrsprachige Wissensorganisation für den Aufbau von eLearning-Systemen für die Ökologie - Erfahrungsberichte zu den Projekten "Logos Gaias" und "Media Nova Naturae" S.105
    3. Kooperative Arbeitsumgebungen Maik ADOMßENT (von Berlin 2001): Gestaltungspotenziale kollaborativer Wissensnetzwerke in "Lernenden Verwaltungen" am Beispiel des praxisbezogenen Online-Kurses "Projektmanagement" der Universität Lüneburg S.123 Andreas WENDT: Standardisierungen im E-Learning-Bereich zur Unterstützung der automatisierten Komposition von Lernmaterialien S.133 Katja MRUCK, Marion NIEHOFF, Guenter MEY: Forschungsunterstützung in kooperativen Lernumgebungen: Das Beispiel der "Projektwerkstatt Qualitativen Arbeitens" als Offline- und Online-Begleitkonzept S.143 Irmhild ROGULLA, Mirko PREHN: Arbeitsprozessorientierte Weiterbildung: Prozess-Systematik als Basis für Informationsaneignung, Wissenserwerb und Kompetenzentwicklung S.151 4. Wissensmanagement und Informationsdesign Alexander SIGEL: Wissensmanagement in der Praxis: Wann, wie und warum hilft dort Wissensorganisation (nicht)? S.163 Johannes GADNER, Doris OHNESORGE, Tine ADLER, Renate BUBER: Repräsentation und Organisation von Wissen zur Entscheidungsunterstützung im Management S.175 Kerstin ZIMMERMANN: Die Anforderungen an ein wissenschaftliches Informationsportal für die Telekommunikation S.187 Philip ZERWECK: Gestaltung und Erstellung komplexer Informationsangebote im Web S.197 H. Peter OHLY (von Belin 2001): Erstellung und Interpretation von semantischen Karten am Beispiel des Themas "Soziologische Beratung" S.205 Thomas SPORER, Anton KÖSTLBACHER: Digitale Dokumentation von wissenschaftlichen Veranstaltungen S.219
    Series
    Fortschritte in der Wissensorganisation; Bd.8
  10. Jantos, D.; Pathmann, A.: Aufbereitungs- und Interpretationsmethoden für lückenhafte Informationen (2007) 0.08
    0.08149621 = product of:
      0.16299242 = sum of:
        0.029897537 = weight(_text_:und in 634) [ClassicSimilarity], result of:
          0.029897537 = score(doc=634,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34282678 = fieldWeight in 634, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=634)
        0.08172335 = weight(_text_:methoden in 634) [ClassicSimilarity], result of:
          0.08172335 = score(doc=634,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 634, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=634)
        0.021473989 = weight(_text_:der in 634) [ClassicSimilarity], result of:
          0.021473989 = score(doc=634,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.24431825 = fieldWeight in 634, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=634)
        0.029897537 = weight(_text_:und in 634) [ClassicSimilarity], result of:
          0.029897537 = score(doc=634,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34282678 = fieldWeight in 634, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=634)
      0.5 = coord(4/8)
    
    Abstract
    Die großen Datenmengen, die heutzutage erfolgreich gemanagt und bearbeitet werden müssen, sind nicht nur eine Herausforderung für den Competitive Intelligence-Manager. Für eine effektive Analyse genügt es leider nicht, nur die Informationen zu sammeln, vielmehr müssen sie so aufbereitet werden, dass sie eine möglichst vollständige Datenbasis für die spätere Interpretation darstellen. Dabei sind immer wieder Lücken in der Datenbasis feststellbar. Um diese zu schließen, werden in diesem Beitrag fünf Methoden zur Aufbereitung von lückenhaften Informationen vorgestellt, auf ihre Einsatztauglichkeit untersucht und miteinander verglichen. Im weiteren Teil der Arbeit wird besonders die Analogieschlussmethode mit ihren Anwendungspotentialen ausführlich dargestellt.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.6/7, S.361-365
  11. Geiß, D.: Gewerbliche Schutzrechte : Rationelle Nutzung ihrer Informations- und Rechtsfunktion in Wirtschaft und Wissenschaft Bericht über das 29.Kolloquium der Technischen Universität Ilmenau über Patentinformation und gewerblichen Rechtsschutz (2007) 0.08
    0.07502703 = product of:
      0.15005407 = sum of:
        0.05125292 = weight(_text_:und in 629) [ClassicSimilarity], result of:
          0.05125292 = score(doc=629,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.58770305 = fieldWeight in 629, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=629)
        0.026030406 = weight(_text_:der in 629) [ClassicSimilarity], result of:
          0.026030406 = score(doc=629,freq=2.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.29615843 = fieldWeight in 629, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=629)
        0.05125292 = weight(_text_:und in 629) [ClassicSimilarity], result of:
          0.05125292 = score(doc=629,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.58770305 = fieldWeight in 629, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=629)
        0.021517832 = product of:
          0.06455349 = sum of:
            0.06455349 = weight(_text_:29 in 629) [ClassicSimilarity], result of:
              0.06455349 = score(doc=629,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.46638384 = fieldWeight in 629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=629)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.6/7, S.376-379
  12. Handbuch Internet-Suchmaschinen [1] : Nutzerorientierung in Wissenschaft und Praxis (2009) 0.07
    0.073971115 = product of:
      0.14794223 = sum of:
        0.038838044 = weight(_text_:und in 329) [ClassicSimilarity], result of:
          0.038838044 = score(doc=329,freq=54.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.44534507 = fieldWeight in 329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.040861674 = weight(_text_:methoden in 329) [ClassicSimilarity], result of:
          0.040861674 = score(doc=329,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.20039418 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.02940447 = weight(_text_:der in 329) [ClassicSimilarity], result of:
          0.02940447 = score(doc=329,freq=30.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.33454654 = fieldWeight in 329, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.038838044 = weight(_text_:und in 329) [ClassicSimilarity], result of:
          0.038838044 = score(doc=329,freq=54.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.44534507 = fieldWeight in 329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
      0.5 = coord(4/8)
    
    Abstract
    In diesem Handbuch steht die Nutzerorientierung im Vordergrund. Namhafte Autoren aus Wissenschaft und Praxis beschäftigen sich in 16 Kapiteln mit Web-Suchmaschinen, die die Vorreiter hinsichtlich des sich verändernden Nutzerverhaltens sind. Das bei Google und Co. erlernte Verhalten wird auf andere Suchsysteme übertragen: die Website-Suche, die Intranet-Suche und die Suche in Spezialsuchmaschinen und Fachdatenbanken. Für alle Anbieter von Informationssystemen wird es zunehmend wichtig, einerseits die Arbeitsweise von Suchmaschinen zu kennen, andererseits mit dem Verhalten Ihrer Nutzer vertraut zu sein. Auf der Seite der Wissenschaftler werden Informatiker, Informationswissenschaftler, Medienwissenschaftler und Bibliothekswissenschaftler angesprochen. Für Entwickler bietet dieses Handbuch einen Überblick über Möglichkeiten für Suchsysteme, gibt Anregungen für Umsetzung und zeigt anhand von bestehenden Lösungen, wie eine Umsetzung aussehen kann. Für Entscheider, Rechercheure und Informationsvermittler bietet das Buch lesbare Überblicksartikel zu relevanten Themenbereichen, auf deren Basis eine Strategie für individuelle Suchlösungen erarbeitet werden kann. Als dritte Praktiker gruppe sind u.a. Berater, Lehrer, Journalisten und Politiker zu nennen, die sich zu den wichtigsten Themen rund um die Suche informieren möchten.
    Content
    I. Suchmaschinenlandschaft Der Markt für Internet-Suchmaschinen - Christian Maaß, Andre Skusa, Andreas Heß und Gotthard Pietsch Typologie der Suchdienste im Internet - Joachim Griesbaum, Bernard Bekavac und Marc Rittberger Spezialsuchmaschinen - Dirk Lewandowski Suchmaschinenmarketing - Carsten D. Schultz II. Suchmaschinentechnologie Ranking-Verfahren für Web-Suchmaschinen - Philipp Dopichaj Programmierschnittstellen der kommerziellen Suchmaschinen - Fabio Tosques und Philipp Mayr Personalisierung der Internetsuche - Lösungstechniken und Marktüberblick - Kai Riemer und Fabian Brüggemann III. Nutzeraspekte Methoden der Erhebung von Nutzerdaten und ihre Anwendung in der Suchmaschinenforschung - Nadine Höchstötter Standards der Ergebnispräsentation - Dirk Lewandowski und Nadine Höchstötter Universal Search - Kontextuelle Einbindung von Ergebnissen unterschiedlicher Quellen und Auswirkungen auf das User Interface - Sonja Quirmbach Visualisierungen bei Internetsuchdiensten - Thomas Weinhold, Bernard Bekavac, Sonja Hierl, Sonja Öttl und Josef Herget IV. Recht und Ethik Datenschutz bei Suchmaschinen - Thilo Weichert Moral und Suchmaschinen - Karsten Weber V. Vertikale Suche Enterprise Search - Suchmaschinen für Inhalte im Unternehmen - Julian Bahrs Wissenschaftliche Dokumente in Suchmaschinen - Dirk Pieper und Sebastian Wolf Suchmaschinen für Kinder - Maria Zens, Friederike Silier und Otto Vollmers
    Footnote
    Vgl. auch: http://www.bui.haw-hamburg.de/164.html (Elektronische Ressource) Rez. in: IWP 60(2009) H.3, S.177-178 (L. Weisel): "Mit dem vorliegenden Handbuch will der Herausgeber, Prof. Dr. Dirk Lewandowksi von der Hochschule für Angewandte Wissenschaften Hamburg, nach eigenen Worten eine Lücke füllen. Er hat renommierte Autoren aus unterschiedlichen Fachcommunities aufgerufen, zu dem Thema "Suchmaschinen im Internet" ihre unterschiedlichen Perspektiven in Form von Übersichtsartikeln zusammenzuführen. So möchte er mit diesem Band den Austausch zwischen den Communities sowie zwischen Wissenschaftlern und Praktikern fördern. . . . Empfehlung Dem Handbuch "Internet-Suchmaschinen" wird eine breite Leserschaft aus Wissenschaft und Praxis des Suchens und Findens im Web gewünscht, es sollte bei allen Einrichtungen für die Ausbildung des Fachnachwuchses zum Repertoire gehören, um diesen kritisch an die Thematik heranzuführen. Das gedruckte Werk wird der Aktualität und dem Wandel in diesem sehr dynamischen Fachgebiet Tribut zollen müssen. Statt einer zeitnahen Zweitausgabe sei dem Herausgeber und dem Verlag hier der Weg der kontinuierlichen Ergänzung empfohlen: um die oben genannten fehlenden Beiträge, aber auch sich neu ententwickelnde Inhalte - in Form eines lebendigen Lehrbuches -auf der geeigneten elektronischen Plattform."
  13. Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007) 0.07
    0.071396135 = product of:
      0.14279227 = sum of:
        0.037234385 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.037234385 = score(doc=2439,freq=38.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.039762102 = weight(_text_:der in 2439) [ClassicSimilarity], result of:
          0.039762102 = score(doc=2439,freq=42.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.45238948 = fieldWeight in 2439, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.037234385 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.037234385 = score(doc=2439,freq=38.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.028561397 = product of:
          0.042842094 = sum of:
            0.02151783 = weight(_text_:29 in 2439) [ClassicSimilarity], result of:
              0.02151783 = score(doc=2439,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.15546128 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
            0.021324264 = weight(_text_:22 in 2439) [ClassicSimilarity], result of:
              0.021324264 = score(doc=2439,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.15476047 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.6666667 = coord(2/3)
      0.5 = coord(4/8)
    
    Abstract
    Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
    Content
    Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
    Date
    22. 2.2009 19:10:56
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.29-31
  14. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.07
    0.07029444 = product of:
      0.18745184 = sum of:
        0.14009717 = weight(_text_:methoden in 4888) [ClassicSimilarity], result of:
          0.14009717 = score(doc=4888,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.6870658 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.026030406 = weight(_text_:der in 4888) [ClassicSimilarity], result of:
          0.026030406 = score(doc=4888,freq=2.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.29615843 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.021324262 = product of:
          0.063972786 = sum of:
            0.063972786 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.063972786 = score(doc=4888,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22
  15. Harvey, D.R.: Preserving digital materials (2005) 0.06
    0.06408142 = product of:
      0.12816285 = sum of:
        0.027012663 = weight(_text_:und in 643) [ClassicSimilarity], result of:
          0.027012663 = score(doc=643,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3097467 = fieldWeight in 643, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=643)
        0.04669906 = weight(_text_:methoden in 643) [ClassicSimilarity], result of:
          0.04669906 = score(doc=643,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.22902192 = fieldWeight in 643, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=643)
        0.027438458 = weight(_text_:der in 643) [ClassicSimilarity], result of:
          0.027438458 = score(doc=643,freq=20.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.3121784 = fieldWeight in 643, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=643)
        0.027012663 = weight(_text_:und in 643) [ClassicSimilarity], result of:
          0.027012663 = score(doc=643,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3097467 = fieldWeight in 643, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=643)
      0.5 = coord(4/8)
    
    Classification
    AN 72300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Buchaufstellung / Bestandssicherung
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.3, S.86-89 (C. Müller): "Ross Harvey widmet sich im vorliegenden Buch den aktuellen Methoden und Praktiken im Bereich der Langzeitarchivierung wie sie einerseits in Bibliotheken aber auch in anderen Institutionen, die sich mit der langfristigen Aufbewahrung digitaler Objekte beschäftigen müssen, angewandt werden. Langzeitarchivierung gehört in den letzten Jahren zu den am meisten diskutierten Themen in der Bibliothekswelt. Die Fülle an Materialien, Meinungen und Positionspapieren im Internet ist nahezu unüberschaubar. Den Bedarf an einem praktischen, überschaubaren Band, der sich den komplexen Belangen rund um das Thema digitale Archivierung widmet, möchte der Autor mit diesem Werk decken. Das Buch ist nicht als Gebrauchsanweisung für jene, die technische Maßnahmen zur Langzeitarchivierung durchführen müssen, konzipiert. Es will vielmehr eine Einführung in die Prinzipien, Strategien und Verfahren der Langzeitarchivierung sein, wie sie derzeit in Bibliotheken schon zum Einsatz kommen. Ross Harvey tut dies vor dem Hintergrund der Ergebnisse schon abgeschlossener und noch laufender Forschungen und praktischer Anwendungen in diesem Bereich. Dabei stützt er sich nicht nur auf Erfahrungen aus Bibliotheken, sondern auch auf Erfahrungen anderer Communities, für welche Langzeitarchivierung ein kritischer Punkt ist, wie zum Beispiel die Geowissenschaften. Der Autor beschreibt, dass die Archivierung digitalen Materials viele Herausforderungen birgt, für die vordigitale Modelle der Konservierung nur wenig Unterstützung bieten.
    Er spricht ganz klar aus, dass es zu dieser Frage keine schnelle technologische Lösung geben wird. Die Erhaltung digitaler Archive über eine lange Zeit ist neben einer technischen vielmehr auch eine institutionelle Frage. Auch organisatorische und rechtliche Herausforderungen spielen in diesen Bereich hinein. "Preserving Digital Materials" widmet sich vier großen Fragen, die dem Buch auch seine Struktur geben: - Warum bewahren wir digitales Material auf? - Welches digitale Material bewahren wir auf? - Wie tun wir dies? - Wie managen wir die digitale Langzeitarchivierung? . . . Im gesamten Buch ist eine Fülle an Materialien und Studien eingearbeitet. Abgerundet wird dieser ausführliche, aber trotzdem übersichtliche Band durch ein Literaturverzeichnis, welches auch viele Online-Quellen enthält. "Preserving Digital Material" ist nicht für ausgewiesene Langzeitarchivierungsexperten konzipiert, sondern wendet sich an all jene, die sich mit der Digitalen Bibliothek beschäftigen und einen fundierten Einstieg in das Thema Langzeitarchivierung suchen."
    RVK
    AN 72300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Buchaufstellung / Bestandssicherung
  16. Jiang, T.: Architektur und Anwendungen des kollaborativen Lernsystems K3 (2008) 0.06
    0.06368549 = product of:
      0.12737098 = sum of:
        0.042281505 = weight(_text_:und in 1391) [ClassicSimilarity], result of:
          0.042281505 = score(doc=1391,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4848303 = fieldWeight in 1391, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1391)
        0.030368807 = weight(_text_:der in 1391) [ClassicSimilarity], result of:
          0.030368807 = score(doc=1391,freq=8.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.34551817 = fieldWeight in 1391, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1391)
        0.042281505 = weight(_text_:und in 1391) [ClassicSimilarity], result of:
          0.042281505 = score(doc=1391,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4848303 = fieldWeight in 1391, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1391)
        0.012439154 = product of:
          0.037317462 = sum of:
            0.037317462 = weight(_text_:22 in 1391) [ClassicSimilarity], result of:
              0.037317462 = score(doc=1391,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.2708308 = fieldWeight in 1391, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1391)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Die K3-Architektur zur technischen Entwicklung und Realisierung des netzbasierten Wissensmanagement in der Lehre wird dargestellt. Das aktuelle K3-System besteht aus drei zentralen Komponenten; K3Forum (Diskurs), K3Vis (Visualisierung) und K3Wiki (kollaborative Textproduktion, z. B. für Zusammenfassungen). K3 verwendet Open-Source-Software unter der LGPL Lizenz.. Dadurch können freie Verwendung, überschaubare Entwicklungskosten und Nachhaltigkeit garantiert und die Unabhängigkeit von kommerziellen Software-Anbietern gesichert werden. Dank des komponentenbasierten Entwicklungskonzepts kann K3 flexibel und robust laufend weiterentwickelt werden, ohne die Stabilität der bestehenden Funktionalitäten zu beeinträchtigen. Der Artikel dokumentiert exemplarisch die Hauptkomponenten und Funktionen von K3, so dass nachfolgende Entwickler leicht eine Übersicht über das K3-System gewinnen können. Die Anforderungen an den Transfer des Systems in Umgebungen außerhalb von Konstanz werden beschrieben.
    Date
    10. 2.2008 14:22:00
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.1, S.32-36
  17. Trkulja, V.: ¬Die Digitale Kluft : eine Analyse der Informationsinfrastruktur in Bosnien-Herzegowina (2008) 0.06
    0.062530436 = product of:
      0.12506087 = sum of:
        0.034168616 = weight(_text_:und in 1600) [ClassicSimilarity], result of:
          0.034168616 = score(doc=1600,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.39180204 = fieldWeight in 1600, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1600)
        0.042507473 = weight(_text_:der in 1600) [ClassicSimilarity], result of:
          0.042507473 = score(doc=1600,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4836247 = fieldWeight in 1600, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1600)
        0.034168616 = weight(_text_:und in 1600) [ClassicSimilarity], result of:
          0.034168616 = score(doc=1600,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.39180204 = fieldWeight in 1600, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1600)
        0.014216176 = product of:
          0.042648528 = sum of:
            0.042648528 = weight(_text_:22 in 1600) [ClassicSimilarity], result of:
              0.042648528 = score(doc=1600,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.30952093 = fieldWeight in 1600, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1600)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Eines der meistdiskutierten Themen bezüglich der Informationsgesellschaft ist das der Digitalen Kluft. Die Informations- und Kommunikationstechnologien (IKT) sind Grundbausteine einer jeden Informationsgesellschaft und bieten große Chancen für die soziale und ökonomische Entwicklung eines Landes. Im Vergleich zu den Teilstaaten des ehemaligen Jugoslawiens wird der aktuelle Stand der Informationsinfrastruktur in Bosnien-Herzegowina aufgezeigt. Auch wenn die IKT in den letzten Jahren eine dynamische Entwicklung erfahren haben, leidet das Land noch immer an den Folgen des Bürgerkrieges. Die komplizierten politischen Verhältnisse verzögern den Ausbau hin zu einer Informationsgesellschaft.
    Date
    5. 3.2008 19:22:56
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.2, S.142-148
  18. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.06
    0.06212985 = product of:
      0.1242597 = sum of:
        0.028750567 = weight(_text_:und in 1443) [ClassicSimilarity], result of:
          0.028750567 = score(doc=1443,freq=58.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.32967478 = fieldWeight in 1443, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.029186912 = weight(_text_:methoden in 1443) [ClassicSimilarity], result of:
          0.029186912 = score(doc=1443,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.1431387 = fieldWeight in 1443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.037571654 = weight(_text_:der in 1443) [ClassicSimilarity], result of:
          0.037571654 = score(doc=1443,freq=96.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.42746788 = fieldWeight in 1443, product of:
              9.797959 = tf(freq=96.0), with freq of:
                96.0 = termFreq=96.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.028750567 = weight(_text_:und in 1443) [ClassicSimilarity], result of:
          0.028750567 = score(doc=1443,freq=58.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.32967478 = fieldWeight in 1443, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
      0.5 = coord(4/8)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
    Den Autoren wurden von den kommerziellen Suchmaschinen AltaVista, Excite und All the Web größere Datenbestände zur Verfügung gestellt. Die ausgewerteten Files umfassten jeweils alle an die jeweilige Suchmaschine an einem bestimmten Tag gestellten Anfragen. Die Daten wurden zwischen 199'] und 2002 erhoben; allerdings liegen nicht von allen Jahren Daten von allen Suchmaschinen vor, so dass einige der festgestellten Unterschiede im Nutzerverhalten sich wohl auf die unterschiedlichen Nutzergruppen der einzelnen Suchmaschinen zurückführen lassen. In einem Fall werden die Nutzergruppen sogar explizit nach den Suchmaschinen getrennt, so dass das Nutzerverhalten der europäischen Nutzer der Suchmaschine All the Web mit dem Verhalten der US-amerikanischen Nutzer verglichen wird. Die Analyse der Logfiles erfolgt auf unterschiedlichen Ebenen: Es werden sowohl die eingegebenen Suchbegriffe, die kompletten Suchanfragen, die Such-Sessions und die Anzahl der angesehenen Ergebnisseiten ermittelt. Bei den Suchbegriffen ist besonders interessant, dass die Spannbreite der Informationsbedürfnisse im Lauf der Jahre deutlich zugenommen hat. Zwar werden 20 Prozent aller eingegebenen Suchbegriffe regelmäßig verwendet, zehn Prozent kamen hingegen nur ein einziges Mal vor. Die thematischen Interessen der Suchmaschinen-Nutzer haben sich im Lauf der letzten Jahre ebenfalls gewandelt. Während in den Anfangsjahren viele Anfragen aus den beiden Themenfeldern Sex und Technologie stammten, gehen diese mittlerweile zurück. Dafür nehmen Anfragen im Bereich E-Commerce zu. Weiterhin zugenommen haben nicht-englischsprachige Begriffe sowie Zahlen und Akronyme. Die Popularität von Suchbegriffen ist auch saisonabhängig und wird durch aktuelle Nachrichten beeinflusst. Auf der Ebene der Suchanfragen zeigt sich weiterhin die vielfach belegte Tatsache, dass Suchanfragen in Web-Suchmaschinen extrem kurz sind. Die durchschnittliche Suchanfrage enthält je nach Suchmaschine zwischen 2,3 und 2,9 Terme. Dies deckt sich mit anderen Untersuchungen zu diesem Thema. Die Länge der Suchanfragen ist in den letzten Jahren leicht steigend; größere Sprünge hin zu längeren Anfragen sind jedoch nicht zu erwarten. Ebenso verhält es sich mit dem Einsatz von Operatoren: Nur etwa in jeder zehnten Anfrage kommen diese vor, wobei die Phrasensuche am häufigsten verwendet wird. Dass die SuchmaschinenNutzer noch weitgehend als Anfänger angesehen werden müssen, zeigt sich auch daran, dass sie pro Suchanfrage nur drei oder vier Dokumente aus der Trefferliste tatsächlich sichten.
    In Hinblick auf die Informationsbedürfnisse ergibt sich eine weitere Besonderheit dadurch, dass Suchmaschinen nicht nur für eine Anfrageform genutzt werden. Eine "Spezialität" der Suchmaschinen ist die Beantwortung von navigationsorientierten Anfragen, beispielsweise nach der Homepage eines Unternehmens. Hier wird keine Menge von Dokumenten oder Fakteninformation verlangt; vielmehr ist eine Navigationshilfe gefragt. Solche Anfragen nehmen weiter zu. Die Untersuchung der Such-Sessions bringt Ergebnisse über die Formulierung und Bearbeitung der Suchanfragen zu einem Informationsbedürfnis zutage. Die Sessions dauern weit überwiegend weniger als 15 Minuten (dies inklusive Sichtung der Dokumente!), wobei etwa fünf Dokumente angesehen werden. Die Anzahl der angesehenen Ergebnisseiten hat im Lauf der Zeit abgenommen; dies könnte darauf zurückzuführen sein, dass es den Suchmaschinen im Lauf der Zeit gelungen ist, die Suchanfragen besser zu beantworten, so dass sich brauchbare Ergebnisse öfter bereits auf der ersten Ergebnisseite finden. Insgesamt bestätigt sich auch hier das Bild vom wenig fortgeschrittenen Suchmaschinen-Nutzer, der nach Eingabe einer unspezifischen Suchanfrage schnelle und gute Ergebnisse erwartet. Der zweite Teil des Buchs widmet sich einigen der bei den Suchmaschinen-Nutzern populären Themen und analysiert das Nutzerverhalten bei solchen Suchen. Dabei werden die eingegebenen Suchbegriffe und Anfragen untersucht. Die Bereiche sind E-Commerce, medizinische Themen, Sex und Multimedia. Anfragen aus dem Bereich E-Commerce sind in der Regel länger als allgemeine Anfragen. Sie werden seltener modifiziert und pro Anfrage werden weniger Dokumente angesehen. Einige generische Ausdrücke wie "shopping" werden sehr häufig verwendet. Der Anteil der E-Commerce-Anfragen ist hoch und die Autoren sehen die Notwendigkeit, spezielle Suchfunktionen für die Suche nach Unternehmenshomepages und Produkten zu erstellen bzw. zu verbessern. Nur zwischen drei und neun Prozent der Anfragen beziehen sich auf medizinische Themen, der Anteil dieser Anfragen nimmt tendenziell ab. Auch der Anteil der Anfragen nach sexuellen Inhalten dürfte mit einem Wert zwischen drei und knapp 1'7 Prozent geringer ausfallen als allgemein angenommen.
    Der relativ hohe Wert von 17 Prozent stammt allerdings aus dem Jahr 1997; seitdem ist eine deutliche Abnahme zu verzeichnen. Betont werden muss außerdem, dass Anfragen nach sexuellen Inhalten nicht mit denen nach Pornographie gleichzusetzen sind. Die Suche nach Multimedia-Inhalten hat sich von den allgemeinen Suchinterfaces der Suchmaschinen hin zu speziellen Suchmasken verschoben, die inzwischen von allen großen Suchmaschinen angeboten werden. Die wichtigste Aussage aus den untersuchten Daten lautet, dass die Suche nach Multimedia-Inhalten komplexer und vor allem interaktiver ist als die übliche Websuche. Die Anfragen sind länger und enthalten zu einem deutlich größeren Teil Operatoren. Bei der Bildersuche stellen weiterhin sexuell orientierte Anfragen den höchsten Anteil. Bei der Bilderund Video-Suche sind die Anfragen deutlich länger als bei der regulären Suche; bei der Audio-Suche sind sie dagegen kürzer. Das vorliegende Werk bietet die bisher umfassendste Analyse des Nutzerverhaltens bezüglich der Web-Suche; insbesondere wurden bisher keine umfassenden, auf längere Zeiträume angelegten Studien vorgelegt, deren Ergebnisse wie im vorliegenden Fall direkt vergleichbar sind. Die Ergebnisse sind valide und ermöglichen es Suchmaschinen-Anbietern wie auch Forschern, künftige Entwicklungen stärker als bisher am tatsächlichen Verhalten der Nutzer auszurichten. Das Buch beschränkt sich allerdings auf die US-amerikanischen Suchmaschinen und deren Nutzer und bezieht nur bei All the Web die europäischen Nutzer ein. Insbesondere die Frage, ob die europäischen oder auch deutschsprachigen Nutzer anders suchen als die amerikanischen, bleibt unbeantwortet. Hier wären weitere Forschungen zu leisten."
  19. Orna, E.: Information strategy in practice (2004.) 0.06
    0.062012028 = product of:
      0.124024056 = sum of:
        0.031711128 = weight(_text_:und in 3589) [ClassicSimilarity], result of:
          0.031711128 = score(doc=3589,freq=36.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.36362273 = fieldWeight in 3589, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3589)
        0.035610583 = weight(_text_:der in 3589) [ClassicSimilarity], result of:
          0.035610583 = score(doc=3589,freq=44.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.405156 = fieldWeight in 3589, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3589)
        0.031711128 = weight(_text_:und in 3589) [ClassicSimilarity], result of:
          0.031711128 = score(doc=3589,freq=36.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.36362273 = fieldWeight in 3589, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3589)
        0.02499122 = product of:
          0.03748683 = sum of:
            0.0188281 = weight(_text_:29 in 3589) [ClassicSimilarity], result of:
              0.0188281 = score(doc=3589,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.13602862 = fieldWeight in 3589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3589)
            0.018658731 = weight(_text_:22 in 3589) [ClassicSimilarity], result of:
              0.018658731 = score(doc=3589,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.1354154 = fieldWeight in 3589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3589)
          0.6666667 = coord(2/3)
      0.5 = coord(4/8)
    
    Date
    9. 3.1997 20:48:29
    30. 6.2005 20:52:22
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.203 (J. Plieningr): "Auf der Vorderseite des Umschlags des Paperbacks prangt eine Grafik von der Art, wie man sie im Inhalt des Buches häufig finden kann: Ein runder Kreis, Pfeile nach innen und außen deuten die In- und Outputs an, innen konzentrische Kreise. Ganz außen ist die Organisation zu finden, eins weiter drinnen die Business strategy und den Kern bildet die information strategy. Das strategische Management der Information stellt also in der Vorstellung der Autorin den Kern einer Firma oder Organisation dar. Das Werk soll die Anleitung zu einer solchen Strategie geben. Allerdings handelt es sich im Grunde bei diesem Buch um bekannte Inhalte, da es sich um die nahezu unveränderte, und auch in den Bibliographien der einzelnen Kapitel nicht aktualisierte zweite Auflage von Practical information policies aus dem Jahre 1999 handelt. Aus diesem "Klassiker" wurden die detaillierten Fallstudien entfernt und hier durch eine neue Einleitung und zwei abschließende Kapitel ergänzt. Die Autorin weist denn auch in der Einleitung darauf hin, dass dieses Buch als Studienausgabe des Werkes von 1999 anzusehen ist. Die Literaturangaben der übernommenen Artikel wurden nicht aktualisiert, jene der neu hinzugefügten Kapitel endet bei 2002. Beim Lesen entfaltet das Werk seinen ganzen Charme angelsächsischer Kompetenz, praktische Inhalte theoretisch angeleitet und doch mit immensem Praxisbezug durchzuarbeiten und auszubreiten. Der Inhalt ist häufig durch Aufzählungen und Auflistungen ergänzt, wobei als Kritikpunkt anzumerken -ist, dass die Aufzählungspunkte im Unterschied zu der Vorauflage nicht jeweils auf einer neuen Zeile stehen, sondern in den Zeilenfluss eingearbeitet wurden um Platz zu sparen. Dies geht auf Kosten der Obersichtlichkeit, was einem Werk, das laut Verlagstexten auch für Lehr- und Studierzwecke eingesetzt werden soll, schlecht ansteht.
    Bei der Lektüre fällt zweierlei auf: Zum einen wird großer Wert auf ein "Information Audit" gelegt, ein Gebiet, auf dem deutsche Bibliotheken großen Nachholbedarf haben. Ein solcher Audit geht über eine bloße Benutzerbefragung hinaus und soll die Informationsströme in der Trägerorganisation der Bibliothek untersuchen, um dann erst zu einer Formulierung der Informationsstrategie der Trägerorganisation zu kommen, welche in Folge der gediegenen Vorarbeit dann auf einem gesicherten Fundament steht. Wer sich das Know-how zu einer solchen umfassenden Untersuchung nicht durch Spezialliteratur aneignen will, der bekommt hier eine knappe und doch umfassende Anleitung zur Hand geliefert. Zum anderen wird klar, dass sich die Ausführungen zur Formulierung, Implementation und Umsetzung einer Informationsstrategie vor allem auf Firmen- und Spezialbibliotheken beziehen, ja sogar eher auf die Ebene des Informationsmanagements der Trägerorganisation selbst, also auf die Bibliothek bzw. Informationsvermittlungsstelle. Bibliothe-kare von kommunalen und universitären Systemen werden also nicht unmittelbaren praktischen Nutzen aus der Lektüre ziehen können, gleichwohl bietet das Buch einen guten Ausblick in ein mögliches Handlungsfeld, in das sich diese Bibliotheken sich bewegen könnten. Obgleich im Grunde sechs Jahre alt, sind die Inhalte dieses "Primers" immer noch aktuell. Die angelsächsische Art, Inhalte knapp und didaktisch aufzubereiten, ist hier hervorragend umgesetzt. Die in der Vorauflage breit dokumentierten praktischen Beispiele fehlen hier nicht ganz, da sie verkürzt eingearbeitet wurden und auch sonst immer wieder auf praktische Erfahrungen und Umsetzungen Bezug genommen wird. Die Lektüre wird dem Fachpublikum empfohlen!"
  20. Slatin, J.M.; Rush, S.: Maximum accessibility : Making your Web site more usable for everyone (2003) 0.06
    0.061029993 = product of:
      0.122059986 = sum of:
        0.031585038 = weight(_text_:und in 2996) [ClassicSimilarity], result of:
          0.031585038 = score(doc=2996,freq=70.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3621769 = fieldWeight in 2996, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
        0.029186912 = weight(_text_:methoden in 2996) [ClassicSimilarity], result of:
          0.029186912 = score(doc=2996,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.1431387 = fieldWeight in 2996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
        0.029703 = weight(_text_:der in 2996) [ClassicSimilarity], result of:
          0.029703 = score(doc=2996,freq=60.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.33794302 = fieldWeight in 2996, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
        0.031585038 = weight(_text_:und in 2996) [ClassicSimilarity], result of:
          0.031585038 = score(doc=2996,freq=70.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3621769 = fieldWeight in 2996, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
      0.5 = coord(4/8)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.431-432 (W. Schweibenz): "Maximum Accessibility ist ein Buch, das die barrierefreie Zugänglichkeit (engl. accessibility) von Web-Sites für Menschen mit Behinderungen behandelt - ein Thema das im deutschsprachigen Raum noch zu wenig öffentliche Beachtung findet. Dabei gewinnt das Thema zunehmend an Aktualität. In Deutschland sind beispielsweise die Einrichtungen des Bundes bzw. der Länder betroffen, die Internet-Angebote unterhalten. Denn die Barrierefreie Informationstechnik-Verordnung - BITV für Bundesbehörden bzw. die Landesverordnungen für Landesbehörden und teilweise für Kommunen und Landkreise schreiben vor, dass bis zum 31. Dezember 2005 die Internet-Angebote der öffentlichen Hand (soweit die Verordnungen für sie gelten), barrierefrei zu gestalten sind. Weiterführende Informationen zu den juristischen Aspekten der Barrierefreiheit für die Bundesrepublik Deutschland bietet Drewes (2004a, 2004b) sowie die Web-Angebote der Initiativen Einfach für alle und WoB11. In der Schweiz regeln das Bundesgesetz über die Beseitigung von Benachteiligungen von Menschen mit Behinderungen sowie die zugehörige Behindertengleichstellungsverordnung Fragen zur Barrierefreiheit von Web-Angeboten. Dabei ist zu beachten, dass die schweizerischen Bestimmungen weiterreichend sind als die deutschen. So dürfen in der Schweiz private Anbieter, die Dienstleistungen öffentlich anbieten, Behinderte nicht diskriminieren. Daraus lässt sich jedoch kein direkter Anspruch auf Barrierefreiheit gegen private Anbieter ableiten. Für Österreich steht derzeit eine detaillierte gesetzliche Regelung der Barrierefreiheit noch aus, bisher ist im E-GovernmentGesetz lediglich eine Absichtserklärung ab dem Jahr 2008 enthalten. Eine gesetzliche Regelung ist aber zu erwarten, weil entsprechende Vorschriften der Europäischen Union barrierefreie Web-Angebote für die Verwaltungen ihrer Mitgliedsstaaten vorsehen. Umfangreiche und verständliche Informationen zum Thema Barrierefreiheit in deutscher Sprache bietet der Leitfaden des deutschen Bundesamts für Sicherheit in der Informationstechnik (2003). Einen Einstieg in die barrierefreie Web-Entwicklung bietet das Online-Tutorial von Jan Eric Hellbusch, das im Oktober 2004 als Buch erscheinen wird. Die Mailingliste Web Accessibility des Kompetenzzentrum BIKA-FIT des Fraunhofer-Instituts ist eine deutschsprachige Plattform für den Austausch zwischen Praktikern und Interessierten. Soweit die einführenden Worte, nun zum eigentlichen Thema, dem Buch Maximum Accessibility. Die Autoren, der blinde John Slatin und und die Web-Designerin Sharron Rush, legen Wert darauf festzustellen, dass es nicht darum geht, für eine kleine Gruppe von Benutzern einen zusätzlichen Aufwand bei der Erstellung von Web-Angeboten zu betreiben, sondern dass vielmehr eine sehr große Zahl von Benutzern betroffen ist, nämlich rund 54 Millionen Amerikaner und 37 Millionen Europäer. Darüber hinaus betonen die Autoren, dass Barrierefreiheit für alle Benutzer gleichermaßen wichtig ist, denn Web-Sites, die für Menschen mit Behinderungen einfach zu benutzen sind, sind es auch für alle Benutzer. Dies gilt auch für den Zugang mit mobilen Geräten, die auf textbasiertes Browsen angewiesen sind. Darüber hinaus sind barrierefreie Web-Seiten auch suchmaschinenoptimiert, weil ihre Inhalte für die Volltextindexierung optimal aufbereitet sind.
    Das Buch besteht aus zwei Teilen: Section 1 - Accessibility and Why It Matters Section 2 - Strategies and Techniques for Maximum Accessibility Im ersten Teil geben die Autoren eine knappe Einführung, in der sie erläutern, was Accessibility bedeutet, und stellen die gesetzlichen Grundlagen in den USA vor. Daneben werfen sie aber auch einen kurzen Blick auf die Situation in Kanada, Australien, der Europäischen Union (EU) und Großbritannien (das interessanterweise nicht zur EU gezählt, sondern gesondert behandelt wird). Der Schwerpunkt USA und die dortige Gesetzeslage ist auch für Leser aus dem deutschsprachigen Raum durchaus interessant dargestellt, erlaubt er doch den Vergleich mit der gesetzlichen Lage in der EU, die durchaus nicht einheitlich ist-in einigen Staaten gelten die Vorschriften der Barrierefreiheit auch für kommerzielle Web-Angebote, z. B. in Großbritannien. In den weiteren Kapiteln wird ein breites Spektrum abgedeckt: Es werden verschiedene Initiatitiven zur Barrierefreiheit in den USA vorgestellt ebenso wie ein business case, der zeigt wie der return an Investment für Barrierefreiheit in einem konkreten Fall aussehen kann. Slatin und Rush gehen davon aus, dass Barrierefreiheit für jedes Unternehmen aus Geschäftsinteresse sinnvoll ist, weil immer mehr Menschen immer älter werden und damit die Wahrscheinlichkeit von körperlichen Beeinträchtigungen zunimmt. Dann liefern sie eine Reihe von Argumenten, warum sich Barrierefreiheit für Unternehmen rechnet. Im Anschluss geben sie einen Überblick, wie man WebSites auf Barrierefreiheit testet, wobei sie betonen, dass automatisierte Prüfwerkzeuge nur in Kombination mit einer Evaluation durch Gutachter bzw. UsabilityTests verwendet werden sollten. Allerdings, so räumen Slatin und Rush ein, helfen diese Werkzeuge und Methoden nicht, die absolute Barrierefreiheit für jeden einzelnen Benutzer oder unter allen Umständen zu erreichen. Anhand von Beispielen zeigen Slatin und Rush, dass Textversionen der Inhalte keine wirkliche Alternative zu tatsächlich barrierefreien Inhalten sind und wie Alternativen für die barrierefreie Präsentation multimedialer Inhalte zur Verfügung stehen. Im ersten Teil sind verschiedene Kapitel mit Erfahrungsberichte des blinden John Slatin eingebunden, die praxisbezogen und anschaulich zeigen, auf welche Probleme Blinde und Sehbehinderte im Web stoßen, so zum Beispiel - dass es für einen blinden Benutzer in der beschriebenen Version praktisch unmöglich war, bei der beschriebenen Version von Amazon online einzukaufen. - dass sich bei ÖPNV-Web-Angeboten trotz des Einsatzes assistiver Technologien wie beispielsweise eines Bildschirmvorleseprogramms (screen reader) erhebliche Probleme mit Tabellen ergeben, die durch ihre zweidimensionale Struktur zwar für die Wahrnehmung mit dem Auge geeignet sind, nicht aber für die Wahrnehmung mit dem Ohr. Allerdings zeigen Screenshots, dass einige dieser Fahrpläne auch sehende Benutzer vor visuelle und intellektuelle Herausforderungen stellen, weil ihr Informationsdesign schlecht gemacht ist.
    - dass der Zugriff auf verschiedene bekannte Museums-Web-Sites durchdie eingesetzten Programmiertechniken effektiv verhindert wird, weil bestimmte Funktionen für ein Bildschirmvorleseprogramm oder eine Braillezeile nicht darstellbar sind. Dazu gehören unter anderem: die beschriebenen Flash-Animationen, automatische refreshs und redirects, server-side image maps. Weitere Problempunkte sind inkonsistentes Design und die sequenzielle Anordnung der Texte, die in einer Reihenfolge vorgelesen werden, die nicht der logischen Struktur entspricht. Verschiedene Kapitel im zweiten Teil bieten eine stark technisch ausgerichtete Handreichung, wie Inhalte und HTMLCode von Web-Angeboten barrierefrei gestaltet werden können. Slatin und Rush behandeln unter anderem folgende Aspekte: - wie Alternativtexte und Langbeschreibungstexte sinnvoll eingesetzt werden und wo besser auf sie verzichtet wird - wie visuelle Inhalte von Grafiken für Blinde sinnvoll und ansprechend beschrieben werden - welche Rolle die Vorlesereihenfolge spielt - welche Alternativen es für textuelle Beschreibungen gibt - wie HTML-Eingabeformulare und HTML-Tabellen barrierefrei gestaltet werden können - dass PDF-Dokumente nicht per se zugänglich sind und wie sie gestaltet werden müssen, damit sie tatsächlich barrierefrei sind - wie Multimedia-Material aufbereitet werden muss - wie Cascading Style Sheets eingesetzt werden können Das Buch zeichnet sich durch ein leicht lesbares Englisch und einen gut verständlichen Stil aus. Die zahlreichen Beispiele aus dem Web-Alltag machen es interessant zu lesen und geben ihm einen hohen Praxisbezug. Die Bezugnahme auf die Richtlinien der Web Accessibility Initiative (WAI) des World Wide Web Consortiums und auf die U.S. Section 508 ziehen sich wie ein roter Faden durch das Buch. Bereits die Einführung enthält eine übersichtliche Tabelle, welche die WAIRichtlinien und die Section 508 den Buchkapiteln gegenüberstellt, in denen sie behandelt werden. Jedes Kapitel listet am Anfang nochmals die WAI-Richtlinien und Absätze der Section 508 auf, die dort vertieft behandelt werden. Darüber hinaus wird dem Leser in sogenannten user experience chapters aus der Perspektive des blinden John Slatin als Betroffenem ebenso einfühlsam wie praxisbezogen nahegebracht, mit welchen Problemen Menschen mit Behinderungen im Web konfrontiert werden. Dies hilft auf anschauliche Weise, das Bewusstsein für die Notwendigkeit von Barrierefreiheit zu wecken, ohne dass der moralische Zeigefinger erhoben wird. Diese Aspekte machen die Lektüre des Buchs gleichermaßen lehrreich wie angenehm."

Authors

Languages

  • d 22
  • m 2

Types

  • a 1555
  • m 211
  • el 149
  • s 91
  • b 25
  • r 7
  • x 7
  • n 5
  • i 4
  • p 1
  • More… Less…

Themes

Subjects

Classifications