Search (59 results, page 3 of 3)

  • × language_ss:"d"
  • × type_ss:"x"
  1. Weidler, D.: Usability-Inspektionen und Usability-Tests : Komplementäre Methoden für die Evaluation eines E-Learning-Moduls (2004) 0.00
    0.0031841588 = product of:
      0.0063683176 = sum of:
        0.0063683176 = product of:
          0.012736635 = sum of:
            0.012736635 = weight(_text_:e in 3706) [ClassicSimilarity], result of:
              0.012736635 = score(doc=3706,freq=6.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.19254501 = fieldWeight in 3706, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3706)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Benutzer von E-Learning-Produkten sind einer Doppelbeiastung ausgesetzt: Aufnehmen von Lernstoff und Erlernen des Umgangs mit Programmen. Der Gefahr, Benutzer einer kognitiven Überlastung auszusetzen, kann eine gute Usability entgegenwirken. Es werden Benutzerfreundlichkeit von Teilen eines E-Learning-Moduls »Automatische Inhaltserschließung« untersucht mit analytischen Inspektionsmethoden und empirischen Usability-Tests. Da der Designprozeß nicht iterativ gestaltet wurde, dienen die Ergebnisse aus den Inspektionen zur Vorbereitung der Tests. Die Testergebnisse werden genutzt, um Erkenntnisse der expertenorientierten Methoden zu verifizieren. Es wird analysiert, ob die Inspektionsmethoden Probleme aufdecken, die auch von den Teilnehmern an den Usability-Tests als solche empfunden wurden. Zur praktischen Umsetzung der Lösungsansätze werden Usability-Reports verfaßt und ein Storyboard konzipiert.
  2. Semenova, E.: Erstellung einer Dokumentationssprache : Am Beispiel der Oberbegriffsdatei für die Sonderausstellungsdatenbank im Institut für Museumskunde, Berlin (2004) 0.00
    0.0031514994 = product of:
      0.006302999 = sum of:
        0.006302999 = product of:
          0.012605998 = sum of:
            0.012605998 = weight(_text_:e in 1734) [ClassicSimilarity], result of:
              0.012605998 = score(doc=1734,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.19057012 = fieldWeight in 1734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1734)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  3. Gabrys-Deutscher, E.: Fachinformationsquellen für Verfahrensingenieure unter besonderer Berücksichtigung ihres Informationsbedarfs und ihrer Informationsgewohnheiten (1998) 0.00
    0.0031514994 = product of:
      0.006302999 = sum of:
        0.006302999 = product of:
          0.012605998 = sum of:
            0.012605998 = weight(_text_:e in 5826) [ClassicSimilarity], result of:
              0.012605998 = score(doc=5826,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.19057012 = fieldWeight in 5826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5826)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  4. Farthofer, E.: Einrichtung einer Literaturdatenbank mit Reference Manager an der Abteilung für Gefäß- und Leistungsbiologie der Naturwissenschaftlichen Fakultät der Paris-Lodron-Universität Salzburg (2004) 0.00
    0.0031514994 = product of:
      0.006302999 = sum of:
        0.006302999 = product of:
          0.012605998 = sum of:
            0.012605998 = weight(_text_:e in 4636) [ClassicSimilarity], result of:
              0.012605998 = score(doc=4636,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.19057012 = fieldWeight in 4636, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4636)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  5. Nicoletti, M.: Automatische Indexierung (2001) 0.00
    0.0031514994 = product of:
      0.006302999 = sum of:
        0.006302999 = product of:
          0.012605998 = sum of:
            0.012605998 = weight(_text_:e in 4326) [ClassicSimilarity], result of:
              0.012605998 = score(doc=4326,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.19057012 = fieldWeight in 4326, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4326)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Inhalt: 1. Aufgabe - 2. Ermittlung von Mehrwortgruppen - 2.1 Definition - 3. Kennzeichnung der Mehrwortgruppen - 4. Grundformen - 5. Term- und Dokumenthäufigkeit --- Termgewichtung - 6. Steuerungsinstrument Schwellenwert - 7. Invertierter Index. Vgl. unter: http://www.grin.com/de/e-book/104966/automatische-indexierung.
  6. Kacmaz, E.: Konzeption und Erstellung eines Online-Nachschlagewerks für den Bereich Web Usability/Accessibility (2004) 0.00
    0.0021009997 = product of:
      0.0042019994 = sum of:
        0.0042019994 = product of:
          0.008403999 = sum of:
            0.008403999 = weight(_text_:e in 3699) [ClassicSimilarity], result of:
              0.008403999 = score(doc=3699,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.12704675 = fieldWeight in 3699, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3699)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  7. Zedelmaier, H.: Bibliotheca universalis und bibliotheca selecta : das Problem der Ordnung des gelehrten Wissens in der frühen Neuzeit (1992) 0.00
    0.0021009997 = product of:
      0.0042019994 = sum of:
        0.0042019994 = product of:
          0.008403999 = sum of:
            0.008403999 = weight(_text_:e in 3932) [ClassicSimilarity], result of:
              0.008403999 = score(doc=3932,freq=8.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.12704675 = fieldWeight in 3932, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3932)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Classification
    All E 68 / Geisteswissenschaften
    All E 69 Ordnungskategorien der Wissenschaften
    SBB
    All E 68 / Geisteswissenschaften
    All E 69 Ordnungskategorien der Wissenschaften
  8. Meyburg, E.: Dokumentation, Archivierung und Recherche im regionalen Privatfernsehen : Konzepte zur kreativen Wiederverwertung der Programmressourcen im Sender Franken Fernsehen (1997) 0.00
    0.0018383748 = product of:
      0.0036767495 = sum of:
        0.0036767495 = product of:
          0.007353499 = sum of:
            0.007353499 = weight(_text_:e in 1497) [ClassicSimilarity], result of:
              0.007353499 = score(doc=1497,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.1111659 = fieldWeight in 1497, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1497)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  9. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.00
    0.0017617419 = product of:
      0.0035234839 = sum of:
        0.0035234839 = product of:
          0.0070469677 = sum of:
            0.0070469677 = weight(_text_:e in 585) [ClassicSimilarity], result of:
              0.0070469677 = score(doc=585,freq=10.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.10653195 = fieldWeight in 585, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=585)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In dieser Arbeit wurde zuerst der Übergang von Suchmaschinen zu einem semantischen Web beschrieben. Im zweiten Kapitel wurden die Topic Maps ausführlicher behandelt. Angefangen bei der Geschichte von Topic Maps, über die Entwurfsziele bis hin zu einem XTM-Tutorial . In diesem Tutorial wurden verschiedene Beispiele durchgeführt und die Lineare Topic Map von Ontopia vorgestellt. Abschließend wurde anhand eines Beispiels eine mögliche Realisierung von Topic Maps mit HTML. Das dritte Kapitel wurde den TopicMaps-Tools und Anfragesprachen gewidmet. Es wurden kommerzielle sowie freiverfügbare Tools vorgestellt und miteinander verglichen. Danach wurden die beiden Anfragesprachen Tolog und TMQL eingeführt. Im vierten Kapitel wurden die beiden Einsatzgebiete von Topic Maps behandelt. Das sind zum einen die Webkataloge und die Suchmaschinen. Zum anderen ist es möglich, auch im Rahmen vom E-Learning von dem Konzept der Topic Maps zu profitieren. In diesem Zusammenhang wurde erst der Omnigator von Ontopia vorgestellt. Dann wurde das im Laufe dieser Arbeit entwickelte Topic Maps Tool E-Learning -Tracker ausgeführt und erklärt.
    Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.
  10. Pfeffer, J.: Online-Tutorials an deutschen Universitäts- und Hochschulbibliotheken : Verbreitung, Typologie und Analyse am Beispiel von LOTSE, DISCUS und BibTutor (2005) 0.00
    0.0015757497 = product of:
      0.0031514994 = sum of:
        0.0031514994 = product of:
          0.006302999 = sum of:
            0.006302999 = weight(_text_:e in 4837) [ClassicSimilarity], result of:
              0.006302999 = score(doc=4837,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.09528506 = fieldWeight in 4837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4837)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Masterarbeit befasst sich mit einer besonderen Form der Vermittlung von Informationskompetenz: dem bibliothekarischen Online-Tutorial. Nach einer Einführung in das Thema Informationskompetenz bzw. Vermittlung von Informationskompetenz wird versucht, vor dem Hintergrund des übergeordneten Themas E-Learning eine Typologie des Online-Tutorials zu erstellen und einen quantitativen Überblick über den Einsatz von Tutorials an deutschen Hochschulbibliotheken zu geben. Aufbauend auf der Zusammenstellung eines Katalogs von Analyse- und Bewertungskriterien für Online-Tutorials werden drei ausgewählte Tutorials, die als besonders zukunftsträchtig und vorbildlich gelten können, einer bewertenden Analyse unterzogen. Die Master's Thesis zeigt, dass Online-Tutorials potenziell eine effiziente und effektive Form der Vermittlung von Informationskompetenz darstellen, auch wenn sie den Auskunftsbibliothekar oder den "teaching librarian" nie vollständig ersetzen können. Außerdem wird deutlich, dass sich trotz einiger herausragender Beispiele das deutsche Hochschulbibliothekswesen nur zögerlich des Online-Tutorials annimmt, wobei die Scheu vor dem ggf. beträchtlichen Entwicklungsaufwand und mangelnde Kooperation die Haupthindernisse für eine flächendeckende Verbreitung sein dürften.
  11. Nitzschner, H.: Konzeption und Entwicklung eines Online-Tutorials zur Verbesserung der Informationskompetenz von Studierenden der Elektrotechnik/Informationstechnik (2004) 0.00
    0.0015757497 = product of:
      0.0031514994 = sum of:
        0.0031514994 = product of:
          0.006302999 = sum of:
            0.006302999 = weight(_text_:e in 728) [ClassicSimilarity], result of:
              0.006302999 = score(doc=728,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.09528506 = fieldWeight in 728, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.046875 = fieldNorm(doc=728)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Verschiedene Studien belegen, dass vor allem Studierende oft keine ausreichenden Kennt-nisse, Fähigkeiten und Fertigkeiten besitzen, um das zunehmende Angebot elektronischer Informationsressourcen zu überschauen und effektiv zu nutzen. Besonders im Bereich der wissenschaftlichen Bibliotheken werden deshalb zahlreiche Schulungsveranstaltungen zur Verbesserung der Informationskompetenz durchgeführt. Um den veränderten Bedürfnissen der Nutzer nach einer größeren Flexibilität hinsichtlich ihrer Lern- und Arbeitsorganisation gerecht zu werden, bedarf es der Schaffung zusätzlicher, zeit- und ortsunabhängiger Schu-lungsangebote. In der vorliegenden Arbeit werden die entscheidenden Faktoren für einen erfolgreichen Einsatz von E-Learning-Anwendungen benannt und unter Berücksichtigung dieser Kriterien ein Online-Tutorial zur Recherche in den Fachdatenbanken der Elektro-technik, Elektronik und Nachrichtentechnik an der SLUB Dresden konzipiert. Der Pla-nungsphase schloss sich die technische Umsetzung an.
  12. Kreutzkam, E.: Neue Wege in alten Online-Katalogen : Catalog Enrichment als Methode der Sacherschließung? ; Stand, Entwicklung und Umsetzung in Bibliotheken Deutschlands (2007) 0.00
    0.0015757497 = product of:
      0.0031514994 = sum of:
        0.0031514994 = product of:
          0.006302999 = sum of:
            0.006302999 = weight(_text_:e in 4650) [ClassicSimilarity], result of:
              0.006302999 = score(doc=4650,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.09528506 = fieldWeight in 4650, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4650)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  13. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.00
    0.0013131249 = product of:
      0.0026262498 = sum of:
        0.0026262498 = product of:
          0.0052524996 = sum of:
            0.0052524996 = weight(_text_:e in 318) [ClassicSimilarity], result of:
              0.0052524996 = score(doc=318,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.07940422 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  14. Carlin, S.A.: Schlagwortvergabe durch Nutzende (Tagging) als Hilfsmittel zur Suche im Web : Ansatz, Modelle, Realisierungen (2006) 0.00
    0.0013131249 = product of:
      0.0026262498 = sum of:
        0.0026262498 = product of:
          0.0052524996 = sum of:
            0.0052524996 = weight(_text_:e in 2476) [ClassicSimilarity], result of:
              0.0052524996 = score(doc=2476,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.07940422 = fieldWeight in 2476, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2476)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Nach dem zu Beginn der Ära des World Wide Web von Hand gepflegte Linklisten und -Verzeichnisse und an Freunde und Kollegen per E-Mail verschickte Links genügten, um die Informationen zu finden, nach denen man suchte, waren schon bald Volltextsuchmaschinen und halbautomatisch betriebene Kataloge notwendig, um den mehr und mehr anschwellenden Informationsfluten des Web Herr zu werden. Heute bereits sind diese Dämme gebrochen und viele Millionen Websites halten Billionen an Einzelseiten mit Informationen vor, von Datenbanken und anderweitig versteckten Informationen ganz zu schweigen. Mit Volltextsuchmaschinen erreicht man bei dieser Masse keine befriedigenden Ergebnisse mehr. Entweder man erzeugt lange Suchterme mit vielen Ausschließungen und ebenso vielen nicht-exklusiven ODER-Verknüpfungen um verschiedene Schreibweisen für den gleichen Term abzudecken oder man wählt von vornherein die Daten-Quelle, an die man seine Fragen stellt, genau aus. Doch oft bleiben nur klassische Web-Suchmaschinen übrig, zumal wenn der Fragende kein Informationsspezialist mit Kenntnissen von Spezialdatenbanken ist, sondern, von dieser Warte aus gesehenen, ein Laie. Und nicht nur im Web selbst, auch in unternehmensinternen Intranets steht man vor diesem Problem. Tausende von indizierten Dokumente mögen ein Eckdatum sein, nach dem sich der Erfolg der Einführung eines Intranets bemessen lässt, aber eine Aussage über die Nützlichkeit ist damit nicht getroffen. Und die bleibt meist hinter den Erwartungen zurück, vor allem bei denen Mitarbeitern, die tatsächlich mit dem Intranet arbeiten müssen. Entscheidend ist für die Informationsauffindung in Inter- und Intranet eine einfach zu nutzende und leicht anpassbare Möglichkeit, neue interessante Inhalte zu entdecken. Mit Tags steht eine mögliche Lösung bereit.
  15. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.00
    0.0010504998 = product of:
      0.0021009997 = sum of:
        0.0021009997 = product of:
          0.0042019994 = sum of:
            0.0042019994 = weight(_text_:e in 548) [ClassicSimilarity], result of:
              0.0042019994 = score(doc=548,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.063523374 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
  16. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.00
    0.0010504998 = product of:
      0.0021009997 = sum of:
        0.0021009997 = product of:
          0.0042019994 = sum of:
            0.0042019994 = weight(_text_:e in 865) [ClassicSimilarity], result of:
              0.0042019994 = score(doc=865,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.063523374 = fieldWeight in 865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03125 = fieldNorm(doc=865)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
  17. Engel, F.: Expertensuche in semantisch integrierten Datenbeständen (2015) 0.00
    0.0010504998 = product of:
      0.0021009997 = sum of:
        0.0021009997 = product of:
          0.0042019994 = sum of:
            0.0042019994 = weight(_text_:e in 2283) [ClassicSimilarity], result of:
              0.0042019994 = score(doc=2283,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.063523374 = fieldWeight in 2283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2283)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wissen ist das intellektuelle Kapital eines Unternehmens und der effektive Zugriff darauf entscheidend für die Anpassungsfähigkeit und Innovationskraft. Eine häufig angewandte Lösung für den erfolgreichen Zugriff auf diese Wissensressourcen ist die Umsetzung der Expertensuche in den Daten der verteilten Informationssysteme des Unternehmens. Aktuelle Expertensuchverfahren berücksichtigen zur Berechnung der Relevanz eines Kandidaten zumeist nur die Information aus Datenquellen (u. a. E-Mails oder Publikationen eines Kandidaten), über die eine Verbindung zwischen dem Thema der Frage und einem Kandidaten hergestellt werden kann. Die aus den Datenquellen gewonnene Information, fließt dann gewichtet in die Relevanzbewertung ein. Analysen aus dem Fachbereich Wissensmanagement zeigen jedoch, dass neben dem Themenbezug auch noch weitere Kriterien Einfluss auf die Auswahl eines Experten in einer Expertensuche haben können (u. a. der Bekanntheitsgrad zwischen dem Suchenden und Kandidat). Um eine optimale Gewichtung der unterschiedlichen Bestandteile und Quellen, aus denen sich die Berechnung der Relevanz speist, zu finden, werden in aktuellen Anwendungen zur Suche nach Dokumenten oder zur Suche im Web verschiedene Verfahren aus dem Umfeld des maschinellen Lernens eingesetzt. Jedoch existieren derzeit nur sehr wenige Arbeiten zur Beantwortung der Frage, wie gut sich diese Verfahren eignen um auch in der Expertensuche verschiedene Bestandteile der Relevanzbestimmung optimal zusammenzuführen. Informationssysteme eines Unternehmens können komplex sein und auf einer verteilten Datenhaltung basieren. Zunehmend finden Technologien aus dem Umfeld des Semantic Web Akzeptanz in Unternehmen, um eine einheitliche Zugriffsschnittstelle auf den verteilten Datenbestand zu gewährleisten. Der Zugriff auf eine derartige Zugriffschnittstelle erfolgt dabei über Abfragesprachen, welche lediglich eine alphanumerische Sortierung der Rückgabe erlauben, jedoch keinen Rückschluss auf die Relevanz der gefundenen Objekte zulassen. Für die Suche nach Experten in einem derartig aufbereiteten Datenbestand bedarf es zusätzlicher Berechnungsverfahren, die einen Rückschluss auf den Relevanzwert eines Kandidaten ermöglichen. In dieser Arbeit soll zum einen ein Beitrag geleistet werden, der die Anwendbarkeit lernender Verfahren zur effektiven Aggregation unterschiedlicher Kriterien in der Suche nach Experten zeigt. Zum anderen soll in dieser Arbeit nach Möglichkeiten geforscht werden, wie die Relevanz eines Kandidaten über Zugriffsschnittstellen berechnet werden kann, die auf Technologien aus dem Umfeld des Semantic Web basieren.
  18. Witschel, H.F.: Global and local resources for peer-to-peer text retrieval (2008) 0.00
    9.191874E-4 = product of:
      0.0018383748 = sum of:
        0.0018383748 = product of:
          0.0036767495 = sum of:
            0.0036767495 = weight(_text_:e in 127) [ClassicSimilarity], result of:
              0.0036767495 = score(doc=127,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.05558295 = fieldWeight in 127, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=127)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    This thesis is organised as follows: Chapter 2 gives a general introduction to the field of information retrieval, covering its most important aspects. Further, the tasks of distributed and peer-to-peer information retrieval (P2PIR) are introduced, motivating their application and characterising the special challenges that they involve, including a review of existing architectures and search protocols in P2PIR. Finally, chapter 2 presents approaches to evaluating the e ectiveness of both traditional and peer-to-peer IR systems. Chapter 3 contains a detailed account of state-of-the-art information retrieval models and algorithms. This encompasses models for matching queries against document representations, term weighting algorithms, approaches to feedback and associative retrieval as well as distributed retrieval. It thus defines important terminology for the following chapters. The notion of "multi-level association graphs" (MLAGs) is introduced in chapter 4. An MLAG is a simple, graph-based framework that allows to model most of the theoretical and practical approaches to IR presented in chapter 3. Moreover, it provides an easy-to-grasp way of defining and including new entities into IR modeling, such as paragraphs or peers, dividing them conceptually while at the same time connecting them to each other in a meaningful way. This allows for a unified view on many IR tasks, including that of distributed and peer-to-peer search. Starting from related work and a formal defiition of the framework, the possibilities of modeling that it provides are discussed in detail, followed by an experimental section that shows how new insights gained from modeling inside the framework can lead to novel combinations of principles and eventually to improved retrieval effectiveness.
  19. Frommeyer, J.: Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken : eine Analyse von RSWK, LCSH und RAMEAU sowie Entwicklung eines theoretischen Modells für ein Zeitretrieval (2003) 0.00
    6.5656245E-4 = product of:
      0.0013131249 = sum of:
        0.0013131249 = product of:
          0.0026262498 = sum of:
            0.0026262498 = weight(_text_:e in 2203) [ClassicSimilarity], result of:
              0.0026262498 = score(doc=2203,freq=2.0), product of:
                0.06614887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.04602077 = queryNorm
                0.03970211 = fieldWeight in 2203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2203)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: ZfBB 50(2003) H.5, S.295-297 (E. Scheven):"In ihrem Buch »Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken« entwickelt die Autorin ein theoretisches Modell für ein Zeitretrieval in allgemeinbibliografischen Datenbanken. Dafür untersucht sie die Verwendung von Zeitbegriffen (Epochenbezeichnungen, historiografischen Begriffen) und Zeitcodierungen (Jahreszahlen, Datumsangaben) bei der Indexierung von Dokumenten in allgemeinbibliografischen Datenbanken und deren Retrievalmöglichkeiten. Durch Globalisierung und Internet ist der Zugang zu den Katalogen unterschiedlichster lnstitutionen weit überdie Landesgrenzen hinaus möglich geworden. Dadurch ist der Zwang zur Standardisierung der bibliothekarischen Regeln weltweit verschärft, um Daten-Interoperabilität zu gewährleisten. Hauptziel der Sacherschließung muss immer die optimale Befriedigung der Benutzerbedürfnisse sein. - Kompetente Einführung - Nach einer kurzen geschichtlichen Darstellung der Zeitrechnung an sich und der bibliothekarischen Regelentwicklung wendet sich die Autorin den wichtigsten Sacherschließungswerkzeugen der westlichen WeIt zu, zum einen den beiden internationalen Universalklassifikationen, DDC und UDK, und zum anderen den drei Schlagwortsystemen LCSH, Rameau und SWD,wobei sieden Schwerpunkt auf die verbalen Sacherschließungssysteme legt. LCSH, Rameau und SWD mit RSWK werden kompetent und ausführlich in 164 von 316 Seiten mit ihrer Entwicklungsgeschichte und ihren Unterschieden dargestellt. Jutta Frommeyer ist hier eine gute vergleichende Einführung in die großen verbalen Sacherschließungssysteme gelungen und zwar nicht nur für Anfänger, sondern auch für praxis-erfahrene Sacherschließer. Die Darstellung von Zeitaspekten nach LCSH kann nach sechs verschiedenen Varianten erfolgen. Es gibt keine allgemeinen subdivisions für Zeitangaben. Rameau stimmt in seiner Struktur mit den LCSH überein, weicht aber bei der Indexierung bezüglich der subdivisions von den LCSH ab. Rameau hat eine allgemein zu verwendende Liste (subdivision) mit ca. 40 Unterteilungen für den Zeitaspekt. Nach RSWK wird der Zeitaspekt durch so genannte Zeitschlagwörter wiedergegeben, die wie auch bestimmte Formalschlagwörter durch Jahreszahlen erweitert werden können. Der im Dokument behandelte Zeitabschnitt wird für die Beschlagwortung herangezogen. Vorgegebene Zeituntergliederungen für bestimmte Themenbereiche wie bei LCSH und Rameau gibt es bei RSWK nicht. Zwischen den Schlagwortsystemen gibt es unterschiedliche Indexierungsregeln, wann ein Zeitschlagwort benutzt werden soll oder nicht.

Types