Search (54 results, page 1 of 3)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Polzer, J.: Deutsche Lexika im Wandel : Von der systematischen Enzyklopädie zum multimedialen Lexikon (2002) 0.09
    0.09005678 = product of:
      0.18011355 = sum of:
        0.046905022 = weight(_text_:neue in 2172) [ClassicSimilarity], result of:
          0.046905022 = score(doc=2172,freq=4.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.31829867 = fieldWeight in 2172, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2172)
        0.04468373 = weight(_text_:elektronische in 2172) [ClassicSimilarity], result of:
          0.04468373 = score(doc=2172,freq=2.0), product of:
            0.17104368 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03616927 = queryNorm
            0.2612416 = fieldWeight in 2172, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2172)
        0.0885248 = weight(_text_:medien in 2172) [ClassicSimilarity], result of:
          0.0885248 = score(doc=2172,freq=8.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.5200141 = fieldWeight in 2172, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2172)
      0.5 = coord(3/6)
    
    Abstract
    Thema der hier vorgestellten Arbeit ist der Wandel deutscher Allgemein - Enzyklopädien in Printform in den letzten 250 Jahren und seit Ende des 20. Jahrhunderts bzw. Anfang des 21. Jahrhunderts der Übergang in die virtuelle ( elektronische ) Form. Ferner werden Fachbegriffe aus dem Lexikonbereich definiert sowie die Typologie und die Angebotsformen aufgeführt. Des Weiteren werden zwei lexikalische Großprojekte des 18. / 19. Jahrhunderts skizziert Daran schließt sich die Geschichte der bekanntesten deutschen Lexikaproduzenten ( Schwerpunkt Brockhaus sowie Meyer und Herder ) sowie deren Produkte an. Davon ausgehend wird der Wandel bzw. die Veränderung in den Produkten im Laufe der Jahrzehnte geschildert. Drüber hinaus gibt es ein Blic ins Ausland was es da für lexikalische Konzepte gibt. Das Erwähnte bezieht sich überwiegend auf Print-Lexika. Nun gibt es einen totalen Umbruch die neuen Medien ermöglichen völlig neue Perspektiven. So werden in dieser Arbeit zwei Multimedia- Enzyklopädien ( CD- ROM / DVD ) vorgestellt. Diese Beispiele sollen zeigen was es alles für Möglichkeiten gibt. Auch die Nachteile werden nicht verschwiegen. Darauf folgt das andere wichtige neue Medium das Internet. In diesem Kapitel wird beschrieben wie man lexikalische Informationen aus dem Internet bekommen kann und worin die Vor- und Nachteile dieser Methode liegen. Am Schluss gibt es auch einen Blick auf die Konsequenzen für öffentliche und wissenschaftliche Bibliotheken. Die neuen Medien führen zu Überlegungen die traditionellen bzw. konventionellen Enzyklopädien nicht mehr zu kaufen. Das könnte eine jahrhundertealte Tradition beenden.
    Content
    Diplomarbeit im Fach Informationsvermittlung in wissenschaftlichen Bibliotheken Studiengang Wissenschaftliche Bibliotheken der Fachhochschule Stuttgart - Hochschule der Medien
    Imprint
    Stuttgart : Fachhochschule Stuttgart - Hochschule der Medien
  2. Nimz, B.: ¬Die Erschließung im Archiv- und Bibliothekswesen unter besonderer Berücksichtigung elektronischer Informationsträger : ein Vergleich im Interesse der Professionalisierung und Harmonisierung (2001) 0.06
    0.06043796 = product of:
      0.18131387 = sum of:
        0.09457762 = weight(_text_:elektronische in 2442) [ClassicSimilarity], result of:
          0.09457762 = score(doc=2442,freq=14.0), product of:
            0.17104368 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03616927 = queryNorm
            0.55294424 = fieldWeight in 2442, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.08673625 = weight(_text_:medien in 2442) [ClassicSimilarity], result of:
          0.08673625 = score(doc=2442,freq=12.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.5095077 = fieldWeight in 2442, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
      0.33333334 = coord(2/6)
    
    Form
    Elektronische Dokumente
    RSWK
    Archiv / Bestandserschließung / Elektronische Medien (BVB)
    Bibliothek / Bestandserschließung / Elektronische Medien (BVB)
    Deutschland / Archivbestand / Bibliotheksbestand / Bestandserschließung / Harmonisierung / Elektronische Medien (BVB)
    Subject
    Archiv / Bestandserschließung / Elektronische Medien (BVB)
    Bibliothek / Bestandserschließung / Elektronische Medien (BVB)
    Deutschland / Archivbestand / Bibliotheksbestand / Bestandserschließung / Harmonisierung / Elektronische Medien (BVB)
  3. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.05
    0.05106346 = product of:
      0.15319037 = sum of:
        0.038297594 = product of:
          0.11489277 = sum of:
            0.11489277 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.11489277 = score(doc=701,freq=2.0), product of:
                0.30664346 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03616927 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.11489277 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.11489277 = score(doc=701,freq=2.0), product of:
            0.30664346 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03616927 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  4. Beger, G.: Urheberrecht und elektronische Bibliotheksangebote : Ein Interessenkonflikt (2002) 0.03
    0.031140234 = product of:
      0.0934207 = sum of:
        0.03980023 = weight(_text_:neue in 1897) [ClassicSimilarity], result of:
          0.03980023 = score(doc=1897,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.27008536 = fieldWeight in 1897, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.046875 = fieldNorm(doc=1897)
        0.05362047 = weight(_text_:elektronische in 1897) [ClassicSimilarity], result of:
          0.05362047 = score(doc=1897,freq=2.0), product of:
            0.17104368 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03616927 = queryNorm
            0.3134899 = fieldWeight in 1897, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.046875 = fieldNorm(doc=1897)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Autorin ist Bibliothekarin und Juristin. Seit 1992 als Bibliotheksdirektorin in Berlin tätig, vertritt sie in Rechtsangelegenheiten das deutsche Bibliothekswesen. Das vorliegende Buch ist der unveränderte Abdruck ihrer Dissertation. Sie hat zum einen den vollständigen Abriss elektronischer Bibliotheksangebote und ihrer rechtlichen Würdigung, als auch die Notwendigkeit von gesetzlichen Ausnahmetatbeständen im digitalen Umwelt zum Gegenstand. Am Vorabend der Gesetzesnovelle zum Urheberrecht in der Informationsgesellschaft behandelt die Autorin den Interessenkonflikt zwischen Rechteinhabern und Bibliotheken, der bisher mit jeder neuen technischen Entwicklung aufs neue entbrannte, mit dem Ergebnis, dass Ausnahmetatbestände aus dem geltenden Recht nicht abgeschafft, sondern bei Netzwiedergaben neu definiert werden müssen. Diese werden von der Autorin durch konkrete Formulierungsvorschläge - gestützt auf den international geltenden Grundsatz der Berner Übereinkunft - für den deutschen Gesetzgeber aufbereitet. Sie alle dienen dem Ziel, Bibliotheken auch künftig in die Lage zu versetzen, ihrem demokratischen Auftrag der Vermittlung und Bewahrung von Information unabhängig von dem Träger, auf dem sie sich befinden, Rechnung zu tragen und dabei eine Balance der Interessen wieder herzustellen.
  5. Rötzer, A.: ¬Die Einteilung der Wissenschaften : Analyse und Typologisierung von Wissenschaftsklassifikationen (2003) 0.03
    0.030083716 = product of:
      0.09025115 = sum of:
        0.0464336 = weight(_text_:neue in 684) [ClassicSimilarity], result of:
          0.0464336 = score(doc=684,freq=8.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.3150996 = fieldWeight in 684, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.043817546 = weight(_text_:medien in 684) [ClassicSimilarity], result of:
          0.043817546 = score(doc=684,freq=4.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.25739387 = fieldWeight in 684, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
      0.33333334 = coord(2/6)
    
    Abstract
    In dem Maße, in dem sich die Wissenschaften partikularisieren und atomisieren, wird es immer schwieriger, Überblick zu gewinnen auch schon über nah verwandte Wissenschaften. Daher wächst die Bedeutung der Klassifizierung hinsichtlich ihrer pragmatischen Funktionen stark an. Zudem sind es heute besonders die Querschnittswissenschaften, die im Zentrum des Forschungsinteresses stehen. Dort werden derzeit die größten Fortschritte gemacht. Man denke dabei nur an die Krebsforschung, die sich im molekularen Bereich in einen Forschungsraum zwischen Chemie und Biologie bewegt. Gerade die Medizin bietet viele Beispiele dieser die Wissenschaftsgrenzen überschreitenden Forschungen: der ganze Bereich der Gentechnik, die Nanotechnik, aber auch die medizinische Informatik und Robotik. Aus diesem Grund sind es nicht nur pragmatische Funktionen, die von einer heutigen Wissenschaftsklassifikation bedient werden müssen, sondern auch epistemologische. Wissenschaftsklassifikationen bieten die Möglichkeit, Zusammenhänge zwischen den Wissenschaften erkennbar machen und eröffnen damit unter Umständen neue Wege der Forschung. Dennoch geriet die Wissenschaftsklassifikation gerade in den letzten Jahren in eine Krise. Die Absage an die Systemhaftigkeit des Ganzen der Wissenschaft, die sich im Zuge der postmodernen Theorie durchgesetzt hat, stellte die Wissenschaftsklassifikation vor Probleme, die sie mit den üblichen Ansätzen nicht lösen konnte. Neue Wege der Klassifikation vor dem Hintergrund der Erkenntnisse dieser neuen Theorieansätze galt es nun zu finden. Jede Zeit findet sich ihre Problemlösungswege, und so hat sich auch für die Wissenschaftsklassifikation der Gegenwart neue Möglichkeiten eröffnet, die sich mit Hilfe der neuen Medien verwirklichen lassen.
    Durch die rasche Vermehrung und erhöhte Verschränkung der Wissenschaften stoßen die klassischen zweidimensionalen und hierarchischen Klassifikationen heute an eine Grenze. Die eindeutige Hierarchisierung kann hier nur auf Kosten der potentiell auszubildenden Beziehungen zwischen den zu klassifizierenden Wissenschaften gehen, denn, um die Logik der Hierarchie zu bewahren, muss häufig auf die Logik der inhaltlichen Zusammenhänge verzichten werden. Eine Lösung in Form von mehrdimensionalen Verbindungen und In-Bezug-Setzungen bieten die Darstellungsmöglichkeiten der neuen Medien. Einen Schritt in diese Richtung unternahm ARTUR P. SCHMIDT mit seinem 1999 auch als CD-Rom erschienen 'Wissensnavigator'. Unter Bezugnahme auf Deleuzes und Guattaris 'Rhizom' fordert er eine ungehinderte Vernetzung des Wissens in alle Richtungen. Er sieht sich damit im Einklang mit den Entwicklungen seiner Zeit. Interaktive Benutzung soll diese totale Vernetzung des Wissens generieren, indem der Benutzer der Enzyklopädie durch seine Anfragen bei ihrer Evolution mitwirkt. Die Darstellbarkeit dieser Vernetzung soll mit Hilfe eines sich in einem 4-dimensionalen Raum befindlichen "Hyperkubus" ermöglicht werden, der "in einer Matrix ein neuronales Netzwerk" enthalten soll. Neben diesem wohl noch als utopisch zu bezeichnenden Projekt gibt es derzeit eine Anzahl konservativerer Ansätze der Klassifizierung im Internet, die größte Differenzierungen erlauben, aber auf ungeregelte 'Hyperverlinkung' verzichten. Sollten jedoch Projekte wie die ARTUR P. SCHMIDTS realisiert werden können, so ist damit vielleicht auch Nietzsches Forderung zu erfüllen, die er noch in weiter Ferne vermutete.
    Mit Hilfe mehrdimensionaler In-Bezug-Setzungen könnte auch einem wechselseitigen Prozess entgegnet werden, der sich seit gut einem Jahrhundert mehr und mehr dynamisierte: Gleichzeitig mit dem Differenzierungsprozess der Wissenschaften, der besonders in den letzten Jahrzehnten immer rascher fortschreitet und hybride Wissenschaftsbezeichnungen wie 'Physikochemie', 'Biophysik' oder 'Soziobiologie' entstehen ließ, geht ein Integrationsprozess einher, der diese Wissenschaften sich wieder annähern lässt. Diese Gleichzeitigkeit der entgegengesetzten Prozesse von Differenzierung und Integration könnte eine neue Form der Einheit der Wissenschaften schaffen, die eine Entwicklung der Wissenschaften zu einem einheitlichen Ganzes in Gang setzt. Damit könnten die großen Potentiale, die in diesem dialektischen Prozess von Differenzierung und Integration hinsichtlich neuer Forschungsergebnisse verwirklicht werden.
  6. Hoffmann, R.: Entwicklung einer benutzerunterstützten automatisierten Klassifikation von Web - Dokumenten : Untersuchung gegenwärtiger Methoden zur automatisierten Dokumentklassifikation und Implementierung eines Prototyps zum verbesserten Information Retrieval für das xFIND System (2002) 0.03
    0.029200405 = product of:
      0.087601215 = sum of:
        0.03752402 = weight(_text_:neue in 4197) [ClassicSimilarity], result of:
          0.03752402 = score(doc=4197,freq=4.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.25463894 = fieldWeight in 4197, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
        0.050077196 = weight(_text_:medien in 4197) [ClassicSimilarity], result of:
          0.050077196 = score(doc=4197,freq=4.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.29416442 = fieldWeight in 4197, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
      0.33333334 = coord(2/6)
    
    Footnote
    Diplomarbeit an der Technischen Universität Graz, Institut für Informationsverarbeitung und Computerunterstützte neue Medien (IICM)
    Imprint
    Graz : Technischen Universität, Institut für Informationsverarbeitung und Computerunterstützte neue Medien (IICM)
  7. Fuchs, C.: Entwurf einer einheitlichen und formalisierbaren Beschreibung von Dokumenten-Management-Systemen (DMS) auf der Basis einer vergleichenden Untersuchung bestehender DMS (2001) 0.03
    0.025950197 = product of:
      0.07785059 = sum of:
        0.03316686 = weight(_text_:neue in 802) [ClassicSimilarity], result of:
          0.03316686 = score(doc=802,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.22507115 = fieldWeight in 802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
        0.04468373 = weight(_text_:elektronische in 802) [ClassicSimilarity], result of:
          0.04468373 = score(doc=802,freq=2.0), product of:
            0.17104368 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03616927 = queryNorm
            0.2612416 = fieldWeight in 802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
      0.33333334 = coord(2/6)
    
    Abstract
    Seitdem die Menschheit Informationen für eine dauerhafte Aufbewahrung aufzeichnete, mussten Wege gefunden werden, bei Bedarf diese Informationen wieder aufzufinden. Solange für die Aufzeichnungen noch kein Papier zur Verfügung stand, hielt sich der dabei zu treibende Aufwand in recht überschaubaren Grenzen. Mit Aufkommen des Papiers und seiner massenhaften Produktion, insbesondere im Zusammenhang mit der industriellen Entwicklung des 19. Jahrhunderts, ergab sich ein sprunghafter Anstieg der zu handhabenden Dokumente. Das Wiederauffinden und der schnelle Zugriff gestalteten sich mit den damals üblichen Organisationsmitteln wie Handablage, Aktenplan und Kartei zunehmend schwieriger. Mit Hilfe von Mikroverfilmung versuchte man vor der Einführung der elektronischen Datenverarbeitung die wachsende Informationsflut besser zu beherrschen. Das Vordringen des Computers in der Bürotätigkeit erhöhte nochmals den Umfang zu handhabender Dokumente, ergab aber auch die Möglichkeit, neue Wege bei der Arbeit mit Dokumenten zu beschreiten. Die Fähigkeit elektronische Informationen in großem Umfang zu speichern, führte zur Erarbeitung von Methoden zur computergestützten Handhabung großer Dokumentenmengen, zu dem, was wir heute als Dokumenten-Management-Systeme (DMS) bezeichnen. Ziel der Arbeit ist es, aus einer vergleichenden Untersuchung bestehender DMS eine einheitliche formalisierbare Beschreibung der Eigenschaften von DMS abzuleiten. Die einheitliche formalisierbare Beschreibung soll auf bestehende DMS angewendet werden, um deren spezifische Eigenschaften in einheitlicher Form zu erfassen. Auf der Basis der einheitlich erfassten Systemeigenschaften ist eine vergleichende Auswertung wichtiger DMS vorzunehmen. Ausgehend von einer Analyse der Systemeigenschaften wichtiger DMS besteht die Aufgabe, einen Anforderungskatalog für moderne DMS abzuleiten. Die Untersuchung soll Aussagen über die Unterstützung von HTML- und XMLDokumenten enthalten.
  8. García Barrios, V.M.: Informationsaufbereitung und Wissensorganisation in transnationalen Konzernen : Konzeption eines Informationssystems für große und geographisch verteilte Unternehmen mit dem Hyperwave Information System (2002) 0.03
    0.025809756 = product of:
      0.077429265 = sum of:
        0.03316686 = weight(_text_:neue in 6000) [ClassicSimilarity], result of:
          0.03316686 = score(doc=6000,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.22507115 = fieldWeight in 6000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6000)
        0.0442624 = weight(_text_:medien in 6000) [ClassicSimilarity], result of:
          0.0442624 = score(doc=6000,freq=2.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.26000705 = fieldWeight in 6000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6000)
      0.33333334 = coord(2/6)
    
    Imprint
    Graz : Technische Universität / Institut für Informationsverarbeitung und Computergestützte neue Medien (IICM)
  9. Jackenkroll, M.: Nutzen von XML für die Herstellung verschiedener medialer Varianten von Informationsmitteln : dargestellt am Beispiel eines geografischen Lexikonartikels (2002) 0.02
    0.024127804 = product of:
      0.07238341 = sum of:
        0.034468014 = weight(_text_:neue in 4804) [ClassicSimilarity], result of:
          0.034468014 = score(doc=4804,freq=6.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.23390082 = fieldWeight in 4804, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4804)
        0.037915397 = weight(_text_:elektronische in 4804) [ClassicSimilarity], result of:
          0.037915397 = score(doc=4804,freq=4.0), product of:
            0.17104368 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03616927 = queryNorm
            0.22167085 = fieldWeight in 4804, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4804)
      0.33333334 = coord(2/6)
    
    Content
    "Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt, als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen. Diese Möglichkeit der Herstellung verschiedener medialer Varianten eines Produkts ist auch für die Herstellung von Informationsmitteln interessant. Im Bereich der Produktion von Informationsmitteln, vor allem von Lexika und Enzyklopädien, ist in den letzten Jahren zu beobachten gewesen, dass neben der traditionellen, gedruckten Ausgabe des Nachschlagewerks zunehmend auch elektronische Varianten, die durch multimediale Elemente angereichert sind, angeboten werden. Diese elektronischen Nachschlagewerke werden sowohl offline, d.h. auf CD-ROM bzw. DVD, als auch online im Internet veröffentlicht. Im Gegensatz zu den gedruckten Versionen werden die neuen Produkte fast jährlich aktualisiert. Diese neue Situation erforderte Veränderungen im Herstellungsprozess. Ein Verfahren, das die Erzeugung verschiedener medialer Varianten eines Produkts möglichst einfach und problemlos ermöglicht, wurde benötigt. XML und ihr Vorgänger, die Standard Generalized Markup Language (SGML), schienen die perfekte Lösung für dieses Problem zu sein. Die Erwartungen an den Nutzen, den SGML und XML bringen könnten, waren hoch: "Allein dieses Spitzklammerformat, eingespeist in einen Datenpool, soll auf Knopfdruck die Generierung der verschiedensten Medienprodukte ermöglichen". Ziel dieser Arbeit ist es, darzustellen, wie der neue Standard XML bei der Publikation von Informationsmitteln eingesetzt werden kann, um aus einem einmal erfassten Datenbestand mit möglichst geringem Aufwand mehrere Ausgabeprodukte zu generieren. Es wird darauf eingegangen, welche Ausgabeformen sich in diesem Bereich für XML-Dokumente anbieten und mit welchen Verfahren und Hilfsmitteln die jeweiligen Ausgabeformate erstellt werden können. In diesem Zusammenhang sollen auch die Aspekte behandelt werden, die sich bei der Umwandlung von XML-Dokumenten in andere For mate unter Umständen als problematisch erweisen könnten.
    Das folgende Kapitel (Kapitel 3) der Arbeit beschäftigt sich mit dem Themenkomplex der Informationsmittel. Hier soll herausgearbeitet werden, welche Typen von Informationsmitteln es gibt und inwieweit sich elektronische und gedruckte Informationsmittel unterscheiden. Schwerpunktmäßig soll in diesem Teil aber dargestellt werden, wie XML und die ihr verwandte, aber komplexere Metaauszeichnungssprache SGML in Verlagen zur Publikation von Informationsmitteln eingesetzt werden, welche Vorteile eine derartige Auszeichnung der Daten mit sich bringt und an welchen Stellen Probleme auftauchen. Nach dem theoretischen Teil soll im weiteren Verlauf der Arbeit (Kapitel 4) die zuvor erläuterte Vorgehensweise an einem Beispiel demonstriert und in die Praxis umgesetzt werden. Anhand eines geografischen Lexikonartikels soll gezeigt werden, wie sich eine DTD entwickeln lässt, welche die Charakteristika dieses Dokumenttyps widerspiegelt und wie verschiedene Stylesheets eingesetzt werden können, um aus dem einmal erfassten Inhalt verschiedene Ausgabeprodukte zu erzeugen. Das entworfene XML-Dokument soll in diesem Fall als HTML-Dokument, als PDF-Dokument und als leicht verändertes XML-Dokument ausgegeben werden."
  10. Schulze, M.: ¬Das Projekt "nestor" : Aufbau eines Kompetenznetzwerks Langzeitarchivierung und Langzeitverfügbarkeit digitaler Ressourcen für Deutschland (2004) 0.02
    0.020852406 = product of:
      0.12511443 = sum of:
        0.12511443 = weight(_text_:elektronische in 4534) [ClassicSimilarity], result of:
          0.12511443 = score(doc=4534,freq=2.0), product of:
            0.17104368 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03616927 = queryNorm
            0.7314765 = fieldWeight in 4534, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.109375 = fieldNorm(doc=4534)
      0.16666667 = coord(1/6)
    
    Form
    Elektronische Dokumente
  11. Klötgen, S.: Elektronische Zeitschriften in ausgewählten Wissenschaftsgebieten : ein Vergleich (2001) 0.02
    0.020852406 = product of:
      0.12511443 = sum of:
        0.12511443 = weight(_text_:elektronische in 5686) [ClassicSimilarity], result of:
          0.12511443 = score(doc=5686,freq=2.0), product of:
            0.17104368 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03616927 = queryNorm
            0.7314765 = fieldWeight in 5686, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.109375 = fieldNorm(doc=5686)
      0.16666667 = coord(1/6)
    
  12. Mühlschlegel, U.: Elektronische Wörterbücher in Bibliotheken : eine Alternative zu den Druckausgaben? (2001) 0.02
    0.020852406 = product of:
      0.12511443 = sum of:
        0.12511443 = weight(_text_:elektronische in 5733) [ClassicSimilarity], result of:
          0.12511443 = score(doc=5733,freq=2.0), product of:
            0.17104368 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03616927 = queryNorm
            0.7314765 = fieldWeight in 5733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.109375 = fieldNorm(doc=5733)
      0.16666667 = coord(1/6)
    
  13. Riebe, U.: John R. Searles Position zum Leib-Seele-Problem (2008) 0.02
    0.020647805 = product of:
      0.06194341 = sum of:
        0.026533486 = weight(_text_:neue in 4567) [ClassicSimilarity], result of:
          0.026533486 = score(doc=4567,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.18005691 = fieldWeight in 4567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03125 = fieldNorm(doc=4567)
        0.035409924 = weight(_text_:medien in 4567) [ClassicSimilarity], result of:
          0.035409924 = score(doc=4567,freq=2.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.20800565 = fieldWeight in 4567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=4567)
      0.33333334 = coord(2/6)
    
    Abstract
    Wenig ist heute für den gebildeten Bürger interessanter, als die aktuellen Erkenntnisse der Neurowissenschaften zu verfolgen. Letztere ermöglichen durch bildgebende Verfahren wie z. B. EEG, fMRT oder MEG, dem Menschen "beim Denken zuzusehen". So heißt es zumindest in den Medien. Aktuelle Forschungsberichte zeigen eine Näherung an diese Sichtweise. Kalifornischen Forschern ist es durch eine Hirnmessung jüngst gelungen, mit groer Wahrscheinlichkeit zu erkennen, welches Bild eine Versuchsperson gerade betrachtet. Dazu wurden der Versuchsperson erst 1.750 Bilder mit Naturmotiven gezeigt und die jeweilige Stimulation im Hirn per fMRT gemessen. Geachtet wurde speziell auf visuelle Areale, die in eine dreidimensionale Matrix transformiert wurden. Die einzelnen Segmente heissen Voxel (analog zu zweidimensionalen Pixeln). So entstand eine Datenbank aus Voxel-Aktivitätsmustern. Im folgenden Durchlauf wurden der Versuchsperson 120 neue Bilder gezeigt und anhand der Datenbank die wahrscheinliche Voxel-Aktivität berechnet. Vorausgesagt wurde dann das Bild, dessen tatsächliches Voxel-Muster mit dem berechneten am meisten übereinstimmte. Bei Versuchsperson A wurde eine Trefferquote von 92% erreicht, bei Versuchsperson B immerhin 72%. Die Forscher folgern optimistisch, dass es über ihren Ansatz möglich sein wird, gesehene Bildeindrücke über Hirnmessungen zu rekonstruieren. Hier wird versucht auf Kants Frage "Was ist der Mensch?" auf materialistische Weise näher zu kommen. Im Bezug auf frühere Experimente von Benjamin Libet schließen heutzutage einige Hirnforscher, dass das bewusste Erleben eines Menschen nur Beiwerk von deterministisch ablaufenden Hirnprozessen ist, weil das Erleben neuronaler Aktivität zeitlich hinterherhinkt. Auch wird gefolgert, dass empfundene Willensfreiheit nur eine Illusion ist, obwohl Libet diese harte Schlussfolgerung nicht zieht. Die Ergebnisse solcher Studien sind zwar hochinteressant, doch muss man bei der Interpretation auch hohe Sorgfalt walten lassen, insbesondere wenn es um das Thema Bewusstsein geht. Von philosophischer Seite her hat sich John Searle intensiv mit dem Thema auseinandergesetzt und eine Theorie entwickelt, die alle bisherigen philosophischen Modelle verwirft.
  14. Haugg, S.: ¬Die Konstruktion der politischen Wirklichkeit durch Nachrichten : Eine Analyse der aktuellen Forschungsdiskussion (2004) 0.02
    0.020443931 = product of:
      0.12266358 = sum of:
        0.12266358 = weight(_text_:medien in 3711) [ClassicSimilarity], result of:
          0.12266358 = score(doc=3711,freq=6.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.72055274 = fieldWeight in 3711, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=3711)
      0.16666667 = coord(1/6)
    
    Abstract
    Nachrichtentheorien erklären unterschiedlich die politische Wirklichkeit in Medien, weil sie von verschiedenen Mechanismen und Annahmen über das Verhältnis von Medien zu Politik ausgehen. Medientheoretische Ansätze, Konstruktion von Wirklichkeit durch Prozesse (Produktions-, Vermittlungs- und Wahrnehmungsprozeß), Erklärungsansätze aktueller Theorien der Nachrichtenauswahl für die mediale Wirklichkeitskonstruktion in der Nachrichtenproduktion, wechselseitige Beeinflussung von Medien und Politik und Auswirkungen auf das Verhältnis von politischer Realität zu Medienrealität werden behandelt.
  15. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.02
    0.018357474 = product of:
      0.05507242 = sum of:
        0.046905022 = weight(_text_:neue in 867) [ClassicSimilarity], result of:
          0.046905022 = score(doc=867,freq=4.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.31829867 = fieldWeight in 867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.008167395 = product of:
          0.024502184 = sum of:
            0.024502184 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.024502184 = score(doc=867,freq=2.0), product of:
                0.12665862 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03616927 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Pages
    22 S
  16. Liebwald, D.: Evaluierung juristischer Datenbanken (2003) 0.02
    0.018165138 = product of:
      0.05449541 = sum of:
        0.0232168 = weight(_text_:neue in 2490) [ClassicSimilarity], result of:
          0.0232168 = score(doc=2490,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.1575498 = fieldWeight in 2490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2490)
        0.031278607 = weight(_text_:elektronische in 2490) [ClassicSimilarity], result of:
          0.031278607 = score(doc=2490,freq=2.0), product of:
            0.17104368 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03616927 = queryNorm
            0.18286912 = fieldWeight in 2490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2490)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in Mitt. VÖB 57(2004) H.2, S.71-73 (J. Pauser):"Bei der hier zu besprechenden Arbeit handelt es sich um die Ende 2003 erfolgte Drucklegung einer juristischen Dissertation an der Universität Wien. Die Autorin zielt darauf ab, "Grundlagen, Entstehung, verschiedene Ansätze und Entwicklungstendenzen desjuristischen Information Retrieval aufzuzeigen [...], um schließlich die Qualität der wichtigsten österreichischen Rechtsdatenbanken anhand der gewonnenen Erkenntnisse messen zu können". Das gewählte Thema ist spannend und wohl für jeden Informationswissenschaftler und praktischen Juristen von Relevanz. Elektronische Datenbanken mit Rechtsinformation, seien sie nun online oder offline, revolutionieren seit geraumer Zeit die juristische Arbeit nicht nur in Österreich. Das Recherchieren mittels dieser neuen "Werkzeuge" gehört bereits standardmäßig zur Grundausbildung eines jedes Juristen. Die Kenntnis der umfassenden Möglichkeiten dieser neuen juristischen Informationsquellen beeinflusst massiv die Qualität und vor allem Schnelligkeit des juristischen Arbeitens. Vor diesem Hintergrund ist es immens wichtig, dass die juristischen Datenbanken den Bedürfnissen der Nutzer möglichst zweckmäßig entgegenkommen. Doris Liebwald definiert im ersten Teil ihrer Arbeit den Begriff "Information Retrieval" als "Repräsentation, Speicherung und Organisation von Informationen und der Zugriff auf Informationen" und versucht anschließend Bewertungskriterien für Rechtsdatenbanken aufzustellen. Hinsichtlich der Daten (Gesetze, Gerichtsentscheidungen, juristische Literatur) fordert sie "Vollständigkeit", "Aktualität" und "Authentizität"; in technischer Sicht ergeben sich "Inhaltserschließung", "Suchfunktionen/-möglichkeiten", sowie die "Benutzerfreundlichkeit der Systemoberfläche" etwa durch einfache Bedienbarkeit, Verständlichkeit, Anreicherung durch Hilfefunktionen usw. als Bewertungskriterien, Schließlich sind aus praktisch-ökonomischer Sicht noch "Kosten" und der "Support" aufgenommen.
    Der Hauptteil der Studie umfasst nun fragebogenartig strukturierte Angaben zu insgesamt 18 österreichischen Rechtsinformationsdatenbanken und zwar: Das große - aber wohl nicht zu verhindern gewesene - Manko dieses Abschnittes ist nun, dass er den Stand von Frühjahr/Sommer 2002 wiedergibt und damit zum größten Teil nicht mehr aktuell ist, denn auf dem Rechtsinformationsmarkt ergaben sich in Ietzter Zeit eine Vielzahl an Änderungen durch Verlags- und Produktverschränkungen, technische Neuerungen und Neugestaltung vieler online-Datenbanken. Der Dokumentationsteil hat damit heute fast nur mehr rechtshistorischen Wert. Beispiele: Die "Arbeitsrecht CD-Rom" wurde bereits vom Markt genommen. - "jusline-pro" dürfte auch nicht mehr existieren, zumindest erscheint im Netz an dem angegebenen URL nun schon seit geraumer Zeit ein Hin weis darauf, dass das System "momentan" (sic) nicht zur Verfügung steht. - "Orac Online" und "ARD Online" wurden mittlerweile verändert und zusammengeführt. - Der Parlamentsserver (http://www.parlinkom.gv.at) hat einen umfassenden grafischen Relaunch hinter sich gebracht, der sich leider nicht zum Vorteil des Nutzers auswirkt. Zugegeben, das alte Design wirkte billig, veraltet und unschön, aber man fand schnell und zügig die "Stenographischen Protokolle" und die "Materialien". Das neue Design fällt trotzdem weit hinter die praktikablen Standards anderer europäischer Parlamente zurück. Leider wurde hier eine Chance vertan. Die Angesprochenen rechtsrelevanten Inhalte sind zwar weiterhin und in großer Menge vorhanden, doch erfordert die Suche nun ein gewisses Maß an archivarischem Fleiß. Viele Nutzer, die sich zuvor sehr leicht getan haben, hatten nach der Umstellung der Website massive Probleme. Vielleicht hätte man hier sinnvollerweise die Publikums-Website mit den allgemeinen Daten zum Parlamentvon der Datenbank-Website mit den gesetzgebungsrelevanten Daten trennen und letztere benutzerfreundlicher aufbereiten sollen. - Die RDB hat nun ein neues Content-Portal eröffnet, das mit dem alten, hier dargestellten, kaum mehr etwas gemeinsam hat. - Im RIS werden seit Anfang 2004 die Bundesgesetzblätter authentisch kundgemacht. - Die Steuerdatenbank ist nunmehr mit der SWK-Online vereinigt. Das mag hier als Hinweis genügen. Ein kurzes zehnseitiges "Ergebnis" beschließt die Studie. Hierwurde die Chance vertan, die dargestellten Datenbanken umfassender zu vergleichen und Unterschiede, Vorteile, Nutzungsmöglichkeiten, Praxisvor- und -nach teile usw. etwa mittels eines standardisierten Tests herauszuarbeiten. Die Arbeit wird ihren Wert vor allem darin entfalten, Datenbankanbieter zu einer Verbesserung ihrer Datenbanken anzuregen. Der Hinweis, dass "die dem User zur Verfügung gestellten Hilfefunktionen und Informationen als untauglich oder unzureichend zu bewerten sind" (S. 191), sollten sich wirklich alle Datenbankanbieter auf diesem Gebiet zu Herzen nehmen."
  17. Müller, M.: ¬Das Fremde und die Medien : interkulturelle Vergleiche der Darstellung von Ethnizität im öffentlich-rechtlichen Fernsehen und deren Rezeption in den Metropolen Hamburg und Sydney (2004) 0.02
    0.0166924 = product of:
      0.10015439 = sum of:
        0.10015439 = weight(_text_:medien in 3717) [ClassicSimilarity], result of:
          0.10015439 = score(doc=3717,freq=4.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.58832884 = fieldWeight in 3717, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=3717)
      0.16666667 = coord(1/6)
    
    Abstract
    Nach historischem Abriß des öffentlich-rechtlichen Rundfunks in Deutschland und Australien werden Programmstrukturen und -richtlinien behandelt, die sich auf die ethnische Vielfalt der Länder beziehen, ferner die multikulturelle Gesellschaft beider Länder und die Rolle der Medien bei der Integration. Ausgewählte Formate und ihre Programme werden auf ihren Anteil an Multikulturalität hin ausgewertet und Ergebnisse einer in Sydney und Hamburg durchgeführten Rezeptionsstudie miteinander verglichen.
  18. Steiner, E.S.: OPAC 2.0 : Mit Web 2.0-Technologie zum Bibliothekskatalog der Zukunft? (2007) 0.02
    0.0166924 = product of:
      0.10015439 = sum of:
        0.10015439 = weight(_text_:medien in 678) [ClassicSimilarity], result of:
          0.10015439 = score(doc=678,freq=4.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.58832884 = fieldWeight in 678, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
      0.16666667 = coord(1/6)
    
    Content
    Bachelorarbeit im Studiengang Bibliotheks- und Informationsmanagementan der Hochschule der Medien
    Imprint
    Stuttgart : Hochschule der Medien
  19. Stelzenmüller, C.: Mashups in Bibliotheken : Untersuchung der Verbreitung von Mashups auf Webseiten wissenschaftlicher Bibliotheken und Erstellung eines praktischen Beispiels (2008) 0.02
    0.0166924 = product of:
      0.10015439 = sum of:
        0.10015439 = weight(_text_:medien in 3069) [ClassicSimilarity], result of:
          0.10015439 = score(doc=3069,freq=4.0), product of:
            0.1702354 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03616927 = queryNorm
            0.58832884 = fieldWeight in 3069, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=3069)
      0.16666667 = coord(1/6)
    
    Footnote
    Bachelor-Arbeit im Studiengang Bibliotheks- und Informationsmanagement an der Hochschule der Medien Stuttgart.
    Imprint
    Stuttgart : Hochschule der Medien
  20. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.02
    0.015570117 = product of:
      0.04671035 = sum of:
        0.019900115 = weight(_text_:neue in 585) [ClassicSimilarity], result of:
          0.019900115 = score(doc=585,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.13504268 = fieldWeight in 585, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.026810234 = weight(_text_:elektronische in 585) [ClassicSimilarity], result of:
          0.026810234 = score(doc=585,freq=2.0), product of:
            0.17104368 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03616927 = queryNorm
            0.15674496 = fieldWeight in 585, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
      0.33333334 = coord(2/6)
    
    Abstract
    Die vorliegende Arbeit versucht, das Thema "Topic Maps" von verschiedenen Perspektiven zu betrachten. "Topic Maps" sind geordnete Wissensnetze. Sie stellen ein Hilfsmittel dar, um sich in der immer größer werdenden Informationsvielfalt zurechtzufinden und beim Navigieren trotz einer möglichen Informationsüberflutung die Übersicht zu behalten. Wie ein Stichwortverzeichnis in einem guten Fachbuch, helfen sie, die genau gesuchte Information zu finden. Die Tatsache, dass elektronische Informationen in größerem Umfang als die Seiten eines Buches vorliegen und auf heterogenen Plattformen gespeichert sind, zieht die Konsequenz mit sich, dass Topic Maps nicht nur aus einer Liste alphabetisch sortierter Stichworte bestehen. Vielmehr werden mit Hilfe von Topic Maps logische Konzepte entworfen, die Wissensnetze semantisch modellieren. In Zusammenhang mit Topic Maps spricht Tim Berner-Lee von der dritten Revolution des Internets. Die XTM-Arbeitsgruppe wirbt sogar mit dem Slogan "Das GPS des Web". So wie eine Landkarte eine schematische Sicht auf eine reale Landschaft ermöglicht und bestimmte Merkmale der Landschaft (z.B. Städte, Straßen, Flüsse) markiert, sind Topic Map in der Lage wichtige Merkmale eines Informationsbestandes festzuhalten und in Bezug zueinander zu setzen. So wie ein GPS-Empfänger die eigene Position auf der Karte feststellt, kann eine Topic Map die Orientierung in einer virtuellen Welt vernetzter Dokumente herstellen. Das klingt etwas exotisch, hat jedoch durchaus praktische und sehr weit gefächerte Anwendungen.
    Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.

Languages

  • d 51
  • e 2
  • More… Less…

Types