Search (90 results, page 2 of 5)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Pusl, F.: Automatische Indexierung an Bibliotheken - Systeme, Projekte und Einsatzmöglichkeiten (2005) 0.01
    0.0120291 = product of:
      0.1443492 = sum of:
        0.1443492 = weight(_text_:systeme in 2059) [ClassicSimilarity], result of:
          0.1443492 = score(doc=2059,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.82772934 = fieldWeight in 2059, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
      0.083333336 = coord(1/12)
    
  2. Chen, X.: Indexing consistency between online catalogues (2008) 0.01
    0.011548201 = product of:
      0.1385784 = sum of:
        0.1385784 = weight(_text_:monographien in 2209) [ClassicSimilarity], result of:
          0.1385784 = score(doc=2209,freq=6.0), product of:
            0.21725276 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032588977 = queryNorm
            0.63786715 = fieldWeight in 2209, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2209)
      0.083333336 = coord(1/12)
    
    Abstract
    In der globalen Online-Umgebung stellen viele bibliographische Dienstleistungen integrierten Zugang zu unterschiedlichen internetbasierten OPACs zur Verfügung. In solch einer Umgebung erwarten Benutzer mehr Übereinstimmungen innerhalb und zwischen den Systemen zu sehen. Zweck dieser Studie ist, die Indexierungskonsistenz zwischen Systemen zu untersuchen. Währenddessen werden einige Faktoren, die die Indexierungskonsistenz beeinflussen können, untersucht. Wichtigstes Ziel dieser Studie ist, die Gründe für die Inkonsistenzen herauszufinden, damit sinnvolle Vorschläge gemacht werden können, um die Indexierungskonsistenz zu verbessern. Eine Auswahl von 3307 Monographien wurde aus zwei chinesischen bibliographischen Katalogen gewählt. Nach Hooper's Formel war die durchschnittliche Indexierungskonsistenz für Indexterme 64,2% und für Klassennummern 61,6%. Nach Rolling's Formel war sie für Indexterme 70,7% und für Klassennummern 63,4%. Mehrere Faktoren, die die Indexierungskonsistenz beeinflussen, wurden untersucht: (1) Indexierungsbereite; (2) Indexierungsspezifizität; (3) Länge der Monographien; (4) Kategorie der Indexierungssprache; (5) Sachgebiet der Monographien; (6) Entwicklung von Disziplinen; (7) Struktur des Thesaurus oder der Klassifikation; (8) Erscheinungsjahr. Gründe für die Inkonsistenzen wurden ebenfalls analysiert. Die Analyse ergab: (1) den Indexieren mangelt es an Fachwissen, Vertrautheit mit den Indexierungssprachen und den Indexierungsregeln, so dass viele Inkonsistenzen verursacht wurden; (2) der Mangel an vereinheitlichten oder präzisen Regeln brachte ebenfalls Inkonsistenzen hervor; (3) verzögerte Überarbeitungen der Indexierungssprachen, Mangel an terminologischer Kontrolle, zu wenige Erläuterungen und "siehe auch" Referenzen, sowie die hohe semantische Freiheit bei der Auswahl von Deskriptoren oder Klassen, verursachten Inkonsistenzen.
  3. Wiese, D.: Wissensmanagement-Systeme : Potenziale und Barrieren (2004) 0.01
    0.009720981 = product of:
      0.11665177 = sum of:
        0.11665177 = weight(_text_:systeme in 3714) [ClassicSimilarity], result of:
          0.11665177 = score(doc=3714,freq=4.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.66890633 = fieldWeight in 3714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0625 = fieldNorm(doc=3714)
      0.083333336 = coord(1/12)
    
    Abstract
    Nach Grundbegriffen, Prozessen und Instrumenten des Wissensmanagements werden die Potentiale der Wissensmanagement-Systeme mit den vier Komponenten (1) Dokumenten- und Contentmanagement, (2) Kompetenzmanagement, (3) Zusammenarbeit und (4) Orientierung und Personalisierung behandelt, deren primäre System-Funktionalitäten und kritische Erfolgsfaktoren erläutert. Die methodische Einführung von Wissensmanagement-Systemen in Unternehmen und mögliche Barrieren während der Planungsphase und Praxiseinführung werden behandelt.
  4. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.01
    0.009563049 = product of:
      0.057378292 = sum of:
        0.037497066 = weight(_text_:informatik in 865) [ClassicSimilarity], result of:
          0.037497066 = score(doc=865,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.2254996 = fieldWeight in 865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
        0.019881228 = product of:
          0.039762456 = sum of:
            0.039762456 = weight(_text_:allgemein in 865) [ClassicSimilarity], result of:
              0.039762456 = score(doc=865,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.23221152 = fieldWeight in 865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=865)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/JanAckermann.pdf
  5. Schmidt, S.: Vergleich exemplarischer XML-Datenbanken in Konzeption, Anwendung und verfügbaren Schnittstellen in Abgrenzung zu relationalen, objektorientierten und XML fähigen Datenbanken (2004) 0.01
    0.009459912 = product of:
      0.05675947 = sum of:
        0.021967318 = weight(_text_:internet in 3704) [ClassicSimilarity], result of:
          0.021967318 = score(doc=3704,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.22832564 = fieldWeight in 3704, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3704)
        0.03479215 = product of:
          0.0695843 = sum of:
            0.0695843 = weight(_text_:allgemein in 3704) [ClassicSimilarity], result of:
              0.0695843 = score(doc=3704,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.40637016 = fieldWeight in 3704, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3704)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Unabhängigkeit von Plattformen und Fähigkeit, Daten verlustfrei über das Internet auszutauschen, verhalfen der eXtensible Markup Language (XML) zum Durchbruch mit der daraus resultierenden Forderung nach und Entwicklung von nativen XML-Datenbanken. Behandelt wird, in wie weit an native XML-Datenbanken bereits ein Standard gelegt werden kann und für welche Einsatzgebiete sie geeignet sind. Dies geschieht über die Definition von Datenbanken und Anfragesprachen allgemein, unter der Betrachtung von XML-fähigen Datenbanken und mittels Vergleich von Xindice, eXist, Tamino und Natix als exemplarischen XML-Datenbanken in Konzept, verfügbaren Features und Handhabbarkeit.
  6. Münch, J.: Muster-basierte Erstellung von Software-Projektplänen (2002) 0.01
    0.0093742665 = product of:
      0.11249119 = sum of:
        0.11249119 = weight(_text_:informatik in 3758) [ClassicSimilarity], result of:
          0.11249119 = score(doc=3758,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.6764988 = fieldWeight in 3758, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.09375 = fieldNorm(doc=3758)
      0.083333336 = coord(1/12)
    
    Footnote
    Zugl.: Dissertation an der Universität Kaiserslautern, FB Informatik, 2001
  7. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.01
    0.009208224 = product of:
      0.05524934 = sum of:
        0.037497066 = weight(_text_:informatik in 862) [ClassicSimilarity], result of:
          0.037497066 = score(doc=862,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.2254996 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.017752273 = weight(_text_:internet in 862) [ClassicSimilarity], result of:
          0.017752273 = score(doc=862,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.18451498 = fieldWeight in 862, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
      0.16666667 = coord(2/12)
    
    Abstract
    Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/SandraMarcus.pdf
  8. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.01
    0.008189078 = product of:
      0.049134467 = sum of:
        0.028122798 = weight(_text_:informatik in 585) [ClassicSimilarity], result of:
          0.028122798 = score(doc=585,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.1691247 = fieldWeight in 585, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0234375 = fieldNorm(doc=585)
        0.02101167 = product of:
          0.04202334 = sum of:
            0.04202334 = weight(_text_:vernetzung in 585) [ClassicSimilarity], result of:
              0.04202334 = score(doc=585,freq=2.0), product of:
                0.20326729 = queryWeight, product of:
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.032588977 = queryNorm
                0.2067393 = fieldWeight in 585, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=585)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.
    Content
    Diplomarbeit, Fachbereich Informatik, AG Integrierte Kommunikationssysteme der Universität Kaiserslautern
  9. Polzer, J.: Deutsche Lexika im Wandel : Von der systematischen Enzyklopädie zum multimedialen Lexikon (2002) 0.01
    0.007840313 = product of:
      0.047041878 = sum of:
        0.022190342 = weight(_text_:internet in 2172) [ClassicSimilarity], result of:
          0.022190342 = score(doc=2172,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.23064373 = fieldWeight in 2172, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2172)
        0.024851536 = product of:
          0.049703073 = sum of:
            0.049703073 = weight(_text_:allgemein in 2172) [ClassicSimilarity], result of:
              0.049703073 = score(doc=2172,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.2902644 = fieldWeight in 2172, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2172)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Thema der hier vorgestellten Arbeit ist der Wandel deutscher Allgemein - Enzyklopädien in Printform in den letzten 250 Jahren und seit Ende des 20. Jahrhunderts bzw. Anfang des 21. Jahrhunderts der Übergang in die virtuelle ( elektronische ) Form. Ferner werden Fachbegriffe aus dem Lexikonbereich definiert sowie die Typologie und die Angebotsformen aufgeführt. Des Weiteren werden zwei lexikalische Großprojekte des 18. / 19. Jahrhunderts skizziert Daran schließt sich die Geschichte der bekanntesten deutschen Lexikaproduzenten ( Schwerpunkt Brockhaus sowie Meyer und Herder ) sowie deren Produkte an. Davon ausgehend wird der Wandel bzw. die Veränderung in den Produkten im Laufe der Jahrzehnte geschildert. Drüber hinaus gibt es ein Blic ins Ausland was es da für lexikalische Konzepte gibt. Das Erwähnte bezieht sich überwiegend auf Print-Lexika. Nun gibt es einen totalen Umbruch die neuen Medien ermöglichen völlig neue Perspektiven. So werden in dieser Arbeit zwei Multimedia- Enzyklopädien ( CD- ROM / DVD ) vorgestellt. Diese Beispiele sollen zeigen was es alles für Möglichkeiten gibt. Auch die Nachteile werden nicht verschwiegen. Darauf folgt das andere wichtige neue Medium das Internet. In diesem Kapitel wird beschrieben wie man lexikalische Informationen aus dem Internet bekommen kann und worin die Vor- und Nachteile dieser Methode liegen. Am Schluss gibt es auch einen Blick auf die Konsequenzen für öffentliche und wissenschaftliche Bibliotheken. Die neuen Medien führen zu Überlegungen die traditionellen bzw. konventionellen Enzyklopädien nicht mehr zu kaufen. Das könnte eine jahrhundertealte Tradition beenden.
  10. Ebeid, N.: Kataloganreicherung / user-created content : oder: Wieso funktioniert mein OPAC nicht wie Amazon? (2009) 0.01
    0.0067570796 = product of:
      0.040542476 = sum of:
        0.015690941 = weight(_text_:internet in 4606) [ClassicSimilarity], result of:
          0.015690941 = score(doc=4606,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.16308975 = fieldWeight in 4606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4606)
        0.024851536 = product of:
          0.049703073 = sum of:
            0.049703073 = weight(_text_:allgemein in 4606) [ClassicSimilarity], result of:
              0.049703073 = score(doc=4606,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.2902644 = fieldWeight in 4606, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4606)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Das Aufkommen des Web 2.0 im Jahr 2004 signalisierte einen Wechsel in der Internetnutzung. Beim Web 2.0 stehen die Nutzer und deren Informationsbedürfnisse im Mittelpunkt. Dies bedeutet auch für Bibliotheken eine Herausforderung. Der Online-Katalog als zentrale Dienstleistung ist von diesen Änderungen besonders betroffen. Hersteller von Bibliothekssoftware und Bibliotheken sind mit der Tatsache konfrontiert, dass immer mehr Menschen für ihre Informationsanliegen das Internet verwenden und Bibliothekskataloge umgehen. Bibliothekarische Webseiten können oft nicht mit Oberflächen wie denen von Google oder Amazon hinsichtlich Benutzerfreundlichkeit konkurrieren. Um nicht weiter in der Wahrnehmung der Nutzer zurückzufallen müssen Bibliotheken ihre Konzepte und Angebote gründlich analysieren. Das Ziel dieser Arbeit ist es, Schwächen und Probleme von konventionellen Online-Katalogen aufzuzeigen und welche Möglichkeiten es gibt, den OPAC für Nutzer attraktiver zu gestalten. Zuerst werden Informationen zum Thema in einschlägigen Publikationen gesammelt. Im Anschluss erfolgt eine Zusammenfassung und Auswertung der erarbeiteten Literatur. Dann werden einige Hochschulbibliotheken vorgestellt, die in ihren OPACs bereits Web 2.0-Anwendungen anbieten bzw. planen. Außerdem werden qualitative Interviews mit Bibliothekaren durchgeführt, die zuständig sind für einen OPAC 2.0. Mit den in den Interviews getätigten Aussagen soll ein aktueller Stand hinsichtlich OPAC-Entwicklung bezweckt werden. Ein wesentliches Ergebnis dieser Arbeit ist, dass es den OPAC 2.0 nicht gibt, und dass jede Bibliothek spezifische Erfordernisse hat, was einen Online-Katalog anbelangt. Daher wird vorgeschlagen, dass Bibliotheken zunächst sich und ihre Arbeitsumfeld sorgfältig analysieren, insbesondere ihre Zielgruppen. Aufgrund der Tatsache, dass es viele Attribute für einen OPAC 2.0 gibt, sollten Entscheidungsträger in Bibliotheken sorgfältig abwägen, welche Instrumente und Anwendungen erforderlich und sinnvoll sind.
    Theme
    Katalogfragen allgemein
  11. Helmbrecht-Schaar, A.: Entwicklung eines Verfahrens der automatischen Klassifizierung für Textdokumente aus dem Fachbereich Informatik mithilfe eines fachspezifischen Klassifikationssystems (2007) 0.01
    0.0066286074 = product of:
      0.079543285 = sum of:
        0.079543285 = weight(_text_:informatik in 1410) [ClassicSimilarity], result of:
          0.079543285 = score(doc=1410,freq=4.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.4783569 = fieldWeight in 1410, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.046875 = fieldNorm(doc=1410)
      0.083333336 = coord(1/12)
    
    Field
    Informatik
  12. Hoffmann, R.: Mailinglisten für den bibliothekarischen Informationsdienst am Beispiel von RABE (2000) 0.01
    0.006260317 = product of:
      0.0375619 = sum of:
        0.01882913 = weight(_text_:internet in 4441) [ClassicSimilarity], result of:
          0.01882913 = score(doc=4441,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.1957077 = fieldWeight in 4441, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=4441)
        0.018732773 = product of:
          0.037465546 = sum of:
            0.037465546 = weight(_text_:22 in 4441) [ClassicSimilarity], result of:
              0.037465546 = score(doc=4441,freq=4.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.32829654 = fieldWeight in 4441, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4441)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    22. 2.2000 10:25:05
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.22
    Theme
    Internet
  13. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.01
    0.0062513794 = product of:
      0.07501655 = sum of:
        0.07501655 = weight(_text_:verteilte in 2508) [ClassicSimilarity], result of:
          0.07501655 = score(doc=2508,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.35659945 = fieldWeight in 2508, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
      0.083333336 = coord(1/12)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
  14. Lebrecht, H.: Methoden und Probleme der Bilderschließung (2003) 0.01
    0.0062513794 = product of:
      0.07501655 = sum of:
        0.07501655 = weight(_text_:verteilte in 2871) [ClassicSimilarity], result of:
          0.07501655 = score(doc=2871,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.35659945 = fieldWeight in 2871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
      0.083333336 = coord(1/12)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
  15. Klas, C.-P.: DAFFODIL: Strategische Unterstützung bei der Informationssuche in Digitalen Bibliotheken (2007) 0.01
    0.0062513794 = product of:
      0.07501655 = sum of:
        0.07501655 = weight(_text_:verteilte in 1843) [ClassicSimilarity], result of:
          0.07501655 = score(doc=1843,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.35659945 = fieldWeight in 1843, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1843)
      0.083333336 = coord(1/12)
    
    Abstract
    Sowohl die rechnergestützte Informationssuche in einer realen Bibliothek als auch die in einer digitalen Bibliothek stellen heute immer noch ein zeitaufwändiges und damit teures Unterfangen dar. Als wesentliche Gründe können drei Problembereiche identifiziert werden. Zum Ersten existieren zahlreiche Zugangspunkte mit jeweils unterschiedlichen Formularen, Anfragesprachen und unterschiedlicher inhaltlicher Qualität. Zum Zweiten fehlt eine dringend benötigte anbieterübergreifende Integration der Informationen und Dienste. Zum Dritten schließlich wird der Benutzer durch die unbefriedigende Funktionalität nicht ausreichend in seinem Informationssuchprozess unterstützt. Alle diese Punkte führen letztendlich zu langwierigen und damit teuren Suchprozessen. Diese Dissertation stellt sich der Aufgabe, den oben genannten Problembereichen in geeigneter Weise zu begegnen und eine adäquate Lösung zu erarbeiten. Dazu erhält der Benutzer durch strategische Unterstützung in Form von verschiedenen integrierten Diensten von einem aktiven System eine Hilfestellung, um so sein Informationsbedürfnis effektiv und effizient befriedigen zu können. Die Ergebnisse dieser Arbeit, die durch eine ausführliche Evaluation belegt worden sind, bieten sowohl theoretische als auch praktische Lösungen zur Entwicklung und zur Nutzung von digitalen Bibliotheken: - Der theoretische Teil zeigt ein Modell für verteilte Bibliotheksdienste auf, strukturiert diese und stellt sie in einen Gesamtzusammenhang. Dadurch wird die Modellierung neuer Dienste erleichtert und ein positiver Nutzen kann schon im Vorfeld diskutiert werden. - Der praktische Teil basiert auf dem entwickelten Modell und ermöglicht - den Benutzern, effektiv und effizient einer umfassenden Literatursuche nachzugehen und diese auch nachhaltig zu verwalten. - den Entwicklern von digitalen Bibliotheken durch Zugriff auf eine Vielzahl von Basisdiensten dar¨uber hinausgehende Dienste zu entwickeln. Insgesamt kann das Daffodil-System als Basisarchitektur für die Entwicklung und Evaluation von digitalen Bibliotheken verwendet werden und trägt somit zur wissenschaftlichen Forschung in diesem Bereich bei.
  16. Eibl, M.: Visualisierung im Dokument Retrieval : Theoretische und praktische Zusammenführung von Softwareergonomie und Graphik Design (2000) 0.01
    0.006249511 = product of:
      0.07499413 = sum of:
        0.07499413 = weight(_text_:informatik in 5639) [ClassicSimilarity], result of:
          0.07499413 = score(doc=5639,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.4509992 = fieldWeight in 5639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0625 = fieldNorm(doc=5639)
      0.083333336 = coord(1/12)
    
    Imprint
    Koblenz, Landau : Universität Koblenz-Landau, FB Informatik
  17. Maier, A.; Peters, A.: Entwicklung eines interaktiven dynamischen semantischen Netzes mit multimedialen Informationsobjekten am Beispiel eines wissenschaftlichen digitalen Schriftarchivs (2004) 0.01
    0.006249511 = product of:
      0.07499413 = sum of:
        0.07499413 = weight(_text_:informatik in 4732) [ClassicSimilarity], result of:
          0.07499413 = score(doc=4732,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.4509992 = fieldWeight in 4732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0625 = fieldNorm(doc=4732)
      0.083333336 = coord(1/12)
    
    Imprint
    Gummersbach : Fachhochschule Köln / Campus Gummersbach Fakultät für Informatik und Ingenieurwissenschaften
  18. Fröhlich, T.: Vorüberlegungen zu einem Gesamtkatalog der Bibliotheken des Deutschen Archäologischen Instituts (DAI) (2001) 0.01
    0.005798692 = product of:
      0.0695843 = sum of:
        0.0695843 = product of:
          0.1391686 = sum of:
            0.1391686 = weight(_text_:allgemein in 4980) [ClassicSimilarity], result of:
              0.1391686 = score(doc=4980,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.8127403 = fieldWeight in 4980, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4980)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Theme
    Katalogfragen allgemein
  19. Bos, F.: Evaluation von Methoden und Methodologien zur Entwicklung von Ontologien und Entwurf einer Ontologie für den Lehrveranstaltungsbereich (2005) 0.01
    0.00552384 = product of:
      0.06628608 = sum of:
        0.06628608 = weight(_text_:informatik in 5019) [ClassicSimilarity], result of:
          0.06628608 = score(doc=5019,freq=4.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.39863077 = fieldWeight in 5019, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5019)
      0.083333336 = coord(1/12)
    
    Content
    Diplomarbeit im Fach Informatik am Institut für Informatik der Universität Zürich
  20. Witschel, H.F.: Text, Wörter, Morpheme : Möglichkeiten einer automatischen Terminologie-Extraktion (2004) 0.01
    0.00552384 = product of:
      0.06628608 = sum of:
        0.06628608 = weight(_text_:informatik in 126) [ClassicSimilarity], result of:
          0.06628608 = score(doc=126,freq=4.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.39863077 = fieldWeight in 126, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=126)
      0.083333336 = coord(1/12)
    
    Imprint
    Leipzig : Universität / Fakultät für Mathematik und Informatik Institut für Informatik

Languages

  • d 83
  • e 6
  • f 1
  • More… Less…

Types