Search (158 results, page 2 of 8)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.02
    0.02197406 = product of:
      0.06592218 = sum of:
        0.06592218 = sum of:
          0.035415366 = weight(_text_:von in 4333) [ClassicSimilarity], result of:
            0.035415366 = score(doc=4333,freq=8.0), product of:
              0.12014598 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04503309 = queryNorm
              0.29476947 = fieldWeight in 4333, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4333)
          0.030506812 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
            0.030506812 = score(doc=4333,freq=2.0), product of:
              0.15769821 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04503309 = queryNorm
              0.19345059 = fieldWeight in 4333, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4333)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
    Pages
    22 S
  2. Buß, M.: Unternehmenssprache in internationalen Unternehmen : Probleme des Informationstransfers in der internen Kommunikation (2005) 0.02
    0.01851642 = product of:
      0.055549257 = sum of:
        0.055549257 = sum of:
          0.025042446 = weight(_text_:von in 1482) [ClassicSimilarity], result of:
            0.025042446 = score(doc=1482,freq=4.0), product of:
              0.12014598 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04503309 = queryNorm
              0.2084335 = fieldWeight in 1482, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1482)
          0.030506812 = weight(_text_:22 in 1482) [ClassicSimilarity], result of:
            0.030506812 = score(doc=1482,freq=2.0), product of:
              0.15769821 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04503309 = queryNorm
              0.19345059 = fieldWeight in 1482, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1482)
      0.33333334 = coord(1/3)
    
    Abstract
    In der vorliegenden Arbeit werden die Auswirkungen einer Unternehmenssprache auf den Informationstransfer in der internen Kommunikation internationaler Unternehmen untersucht. Eine Unternehmenssprache ist die von der Unternehmensleitung festgelegte, offizielle Sprache in der internen Kommunikation. Die Arbeit beginnt mit einer Analyse der Aufgaben und Ziele von Sprache, wonach im zweiten Teil das Unternehmen und die interne Kommunikation betrachtet werden. Auf dieser Grundlage werden die Auswirkungen der Unternehmenssprache auf die internen Netzwerke eines Unternehmens untersucht. Netzwerke bilden die Basis zum erfolgreichen Informationstransfer und entstehen durch Kommunikation. Im Unternehmen existieren formelle und informelle Netzwerke, die auf der Kommunikation zwischen Menschen direkt oder über Hilfsmittel sowie auf der Kommunikation zwischen Mensch und Maschine beruhen. Es stellt sich heraus, dass eine Unternehmenssprache positiv auf die Innenbindung der technischen Netzwerkstruktur wirkt. Dadurch ergeben sich Kosten- und Zeitvorteile. Innerhalb der zwischenmenschlichen Netzwerke bildet eine Unternehmenssprache die Basis für das Gelingen einer unternehmensweiten Zusammenarbeit. Synergieeffekte sind zu erwarten, welche die Leistung des Unternehmens steigern. In Bezug auf die Mitarbeiter, deren Muttersprache jedoch nicht die Unternehmenssprache ist, muss mit erheblichen Schwierigkeiten gerechnet werden. Es wird ein Bezug zwischen der Relevanz der beschriebenen Vor- und Nachteile und der Organisationsstruktur hergestellt und Empfehlungen für eine erfolgreiche Umsetzung des Konzepts 'Unternehmenssprache' gegeben.
    Date
    22. 5.2005 18:25:26
  3. Boutin, E.: ¬La recherche d'information sur Internet au prisme de la théorie des facettes (2008) 0.02
    0.018443422 = product of:
      0.055330265 = sum of:
        0.055330265 = weight(_text_:f in 2800) [ClassicSimilarity], result of:
          0.055330265 = score(doc=2800,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.3082599 = fieldWeight in 2800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2800)
      0.33333334 = coord(1/3)
    
    Language
    f
  4. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.02
    0.016071498 = product of:
      0.048214495 = sum of:
        0.048214495 = sum of:
          0.017707683 = weight(_text_:von in 1670) [ClassicSimilarity], result of:
            0.017707683 = score(doc=1670,freq=2.0), product of:
              0.12014598 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04503309 = queryNorm
              0.14738473 = fieldWeight in 1670, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1670)
          0.030506812 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
            0.030506812 = score(doc=1670,freq=2.0), product of:
              0.15769821 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04503309 = queryNorm
              0.19345059 = fieldWeight in 1670, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1670)
      0.33333334 = coord(1/3)
    
    Abstract
    Es ist ein semantisches Netz für den Gegenstandsbereich Luftfahrt modelliert worden, welches Unternehmensinformationen, Organisationen, Fluglinien, Flughäfen, etc. enthält, Diese sind 10 Hauptkategorien zugeordnet worden, die untergliedert nach Facetten sind. Die Begriffe des Gegenstandsbereiches sind mit 23 unterschiedlichen Relationen verknüpft worden (Z. B.: 'hat Standort in', bietet an, 'ist Homebase von', etc). Der Schwerpunkt der Betrachtung liegt auf dem Unterschied zwischen den drei klassischen Standardrelationen und den zusätzlich eingerichteten Relationen, bezüglich ihrem Nutzen für ein effizientes Retrieval. Die angelegten Kategorien und Relationen sind sowohl für eine kognitive als auch für eine maschinelle Verarbeitung geeignet.
    Date
    26. 9.2006 21:00:22
  5. Ernst, S.: Aspekte der Modellierung und Visualisierung von XML Topic Maps : die Entwicklung von Stylesheets zur Darstellung von Topic Maps in SVG (2004) 0.01
    0.012268243 = product of:
      0.03680473 = sum of:
        0.03680473 = product of:
          0.07360946 = sum of:
            0.07360946 = weight(_text_:von in 2216) [ClassicSimilarity], result of:
              0.07360946 = score(doc=2216,freq=6.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.61266685 = fieldWeight in 2216, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2216)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  6. Haugg, S.: ¬Die Konstruktion der politischen Wirklichkeit durch Nachrichten : Eine Analyse der aktuellen Forschungsdiskussion (2004) 0.01
    0.010558821 = product of:
      0.031676464 = sum of:
        0.031676464 = product of:
          0.06335293 = sum of:
            0.06335293 = weight(_text_:von in 3711) [ClassicSimilarity], result of:
              0.06335293 = score(doc=3711,freq=10.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.52729964 = fieldWeight in 3711, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3711)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Nachrichtentheorien erklären unterschiedlich die politische Wirklichkeit in Medien, weil sie von verschiedenen Mechanismen und Annahmen über das Verhältnis von Medien zu Politik ausgehen. Medientheoretische Ansätze, Konstruktion von Wirklichkeit durch Prozesse (Produktions-, Vermittlungs- und Wahrnehmungsprozeß), Erklärungsansätze aktueller Theorien der Nachrichtenauswahl für die mediale Wirklichkeitskonstruktion in der Nachrichtenproduktion, wechselseitige Beeinflussung von Medien und Politik und Auswirkungen auf das Verhältnis von politischer Realität zu Medienrealität werden behandelt.
  7. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.010168938 = product of:
      0.030506812 = sum of:
        0.030506812 = product of:
          0.061013624 = sum of:
            0.061013624 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.061013624 = score(doc=3406,freq=2.0), product of:
                0.15769821 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04503309 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    30. 5.2010 16:22:35
  8. Meißner, M.: Vergleichende Untersuchung von Thesauri, Schlagwortlisten und Klassifikationen im Hinblick auf ihre Anwendung für die Indexierung von Informationen zur Thematik "Alternativmethoden zu Tierversuchen" und auf angrenzenden Gebieten (2002) 0.01
    0.010016979 = product of:
      0.030050935 = sum of:
        0.030050935 = product of:
          0.06010187 = sum of:
            0.06010187 = weight(_text_:von in 1578) [ClassicSimilarity], result of:
              0.06010187 = score(doc=1578,freq=4.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.5002404 = fieldWeight in 1578, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1578)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  9. Woldt, M.: Informationsmodellierung in XML : Entwicklung einer XML-Applikation für Fotodaten mit Vergleich und Übersicht bestehender Fotoapplikationen (2004) 0.01
    0.009444097 = product of:
      0.028332291 = sum of:
        0.028332291 = product of:
          0.056664582 = sum of:
            0.056664582 = weight(_text_:von in 3707) [ClassicSimilarity], result of:
              0.056664582 = score(doc=3707,freq=8.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.47163114 = fieldWeight in 3707, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3707)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Ziel ist, ein bestmögliches Retrieval von Fotodaten zu ermöglichen. Dazu werden Funktionsweisen von XML und Tochtertechnologien DTD und XML Schemata erklärt. Vier Anwendungen und Konzepte werden vorgestellt, die bei der Fotoerfassung zum Einsatz kommen. Im praxisorientierten Teil wird ein entwickelter Prototyp einer XML Applikation zum Erfassen von Fotodaten vorgestellt. Um seine Einsatzmöglichkeit und Funktionalität zu verdeutlichen, werden mit der Applikation die Daten von 100 Fotos beispielhaft aufgenommen und in XML-Dokumenten abgelegt (beiliegende CD-ROM).
  10. Schönauer, S.: Wissensmanagement im Fokus kommunikativer Prozesse (2003) 0.01
    0.009444097 = product of:
      0.028332291 = sum of:
        0.028332291 = product of:
          0.056664582 = sum of:
            0.056664582 = weight(_text_:von in 3407) [ClassicSimilarity], result of:
              0.056664582 = score(doc=3407,freq=32.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.47163114 = fieldWeight in 3407, product of:
                  5.656854 = tf(freq=32.0), with freq of:
                    32.0 = termFreq=32.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3407)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Untersuchungsgegenstand dieser Arbeit umfasst sowohl die theoretischen Konzepte zum Management von Wissen, als auch die Möglichkeit der Integration neuer Informations- und Kommunikationstechnologien in den Prozess des Wissensmanagements. Da eine kritische Betrachtung von Wissensmanagementkonzepten ohne der grundsätzlichen Darstellung des ökonomischen Umfeldes, sowie der Klärung der Frage, welche Faktoren die Entstehung von Wissen beeinflussen nicht möglich ist, werden im Rahmen dieser Arbeit auch diese Aspekte betrachtet. In Bezug auf die Integration neuer Informations- und Kommunikationstechnologien müssen neben den grundsätzlichen Charakteristika dieser Technologien auch die Bedeutung von Kommunikation und Information im Kontext des ökonomischen Systems, als auch im Kontext von Wissen untersucht werden. Aus der grundsätzlichen Darstellung der Zusammenhänge von Kommunikation und Wissen und der Bedeutung von Wissen für die Wirtschaft lassen sich einige grundlegende Anforderungen an das Management von Wissen stellen, anhand derer das Wissensmanagement untersucht wird. Eine Analyse der Charakteristika neuer Informations- und Kommunikationstechnologien und der Bedeutung von Kommunikation für die Wissensgenerierung können Hinweise darauf geben, welche Wissensmanagementkonzepte dem Untersuchungsgegenstand Wissen gerecht werden und welche Relevanz neue Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement haben.
    Fragestellung: "Kann man Wissen wie eine Ressource behandeln und managen?" Diese Frage stellt bzw. sollte den Ausgangspunkt jedes Wissensmanagementkonzeptes darstellen und steht aus diesem Grund im Mittelpunkt dieser Arbeit. Anders formuliert könnte man sagen: "Ist der Begriff Wissensmanagement kontradiktorisch?" Stellen Wissensmanagementkonzepte nur einen neuen Managementtrend dar, der alte, wenig erfolgreiche Konzepte (Business Process Reengeneering, TQM, Lean Management, Kaizen) mit neuen Begriffen auffüllt? Was ist Wissen und welche Faktoren begünstigen die Entstehung und den Austausch von Wissen? Welche Bedeutung hat Kommunikation für die Entstehung von Wissen? Wenn Kommunikation einen entscheidenden Faktor für die Entstehung und den Austausch von Wissen hat, inwiefern können Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement genutzt werden? Das sind die zentralen Fragen, die ich mir am Anfang und im Verlauf dieser Arbeit gestellt habe. Die Fragestellungen basieren auf sozialwissenschaftlichen Überlegungen, anhand derer das ökonomische Konzept Wissensmanagement untersucht wird. Nachdem Wissen ein soziales Konstrukt ist und die Transformation der knowledge-based economy vor allem von den neuen Informations- und Kommunikationstechnologien vorangetrieben und verstärkt wurde, erschien mir die Betrachtung des Managements von Wissen anhand dieser Fragestellungen für zielführend und an der Zeit.
  11. Schmidt, S.: Vergleich exemplarischer XML-Datenbanken in Konzeption, Anwendung und verfügbaren Schnittstellen in Abgrenzung zu relationalen, objektorientierten und XML fähigen Datenbanken (2004) 0.01
    0.00923897 = product of:
      0.027716907 = sum of:
        0.027716907 = product of:
          0.055433813 = sum of:
            0.055433813 = weight(_text_:von in 3704) [ClassicSimilarity], result of:
              0.055433813 = score(doc=3704,freq=10.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.4613872 = fieldWeight in 3704, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3704)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Unabhängigkeit von Plattformen und Fähigkeit, Daten verlustfrei über das Internet auszutauschen, verhalfen der eXtensible Markup Language (XML) zum Durchbruch mit der daraus resultierenden Forderung nach und Entwicklung von nativen XML-Datenbanken. Behandelt wird, in wie weit an native XML-Datenbanken bereits ein Standard gelegt werden kann und für welche Einsatzgebiete sie geeignet sind. Dies geschieht über die Definition von Datenbanken und Anfragesprachen allgemein, unter der Betrachtung von XML-fähigen Datenbanken und mittels Vergleich von Xindice, eXist, Tamino und Natix als exemplarischen XML-Datenbanken in Konzept, verfügbaren Features und Handhabbarkeit.
  12. Simon, D.: Anreicherung bibliothekarischer Titeldaten durch Tagging : Möglichkeiten und Probleme (2007) 0.01
    0.00923897 = product of:
      0.027716907 = sum of:
        0.027716907 = product of:
          0.055433813 = sum of:
            0.055433813 = weight(_text_:von in 530) [ClassicSimilarity], result of:
              0.055433813 = score(doc=530,freq=10.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.4613872 = fieldWeight in 530, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=530)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Arbeit ist die untersucht dier Möglichkeiten von Tagging-Verfahren im Kontext bibliothekarischer Erschließung. Der Verfasser führt dazu in das Thema Social Tagging bzw. Folksonomy ein und erklärt die Funktionsweise von Tagging-Systemen. Die Untersuchung stützt sich im wesentlichen auf eine Analyse des KölnerUniversitätsGesamtkatalogs (KUG), der direktes Tagging durch Katalognutzer ebenso ermöglicht wie die Übernahme von Katalogeinträgen für das System BibSonomy. KUG und BibSonomy werden daher mit ihren Eigenschaften vorgestellt, bevor eine bewertende Analyse der Taggingmöglichkeiten und deren bisheriger tatsächlicher Nutzung vorgenommen wird. Dabei untersucht der Verfasser auch den möglichen Beitrag von Tagging-Verfahren in Ergänzung zu den Ergebnissen von Verfahren der inhaltlichen Erschließung und automatischen Indexierung.
  13. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.01
    0.00923897 = product of:
      0.027716907 = sum of:
        0.027716907 = product of:
          0.055433813 = sum of:
            0.055433813 = weight(_text_:von in 782) [ClassicSimilarity], result of:
              0.055433813 = score(doc=782,freq=10.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.4613872 = fieldWeight in 782, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=782)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
  14. Pfäffli, W.: ¬La qualité des résultats de recherche dans le cadre du projet MACS (Multilingual Access to Subjects) : vers un élargissement des ensembles de résultats de recherche (2009) 0.01
    0.009221711 = product of:
      0.027665133 = sum of:
        0.027665133 = weight(_text_:f in 2818) [ClassicSimilarity], result of:
          0.027665133 = score(doc=2818,freq=2.0), product of:
            0.17949225 = queryWeight, product of:
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.04503309 = queryNorm
            0.15412995 = fieldWeight in 2818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.985786 = idf(docFreq=2232, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2818)
      0.33333334 = coord(1/3)
    
    Language
    f
  15. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.01
    0.008853842 = product of:
      0.026561523 = sum of:
        0.026561523 = product of:
          0.053123046 = sum of:
            0.053123046 = weight(_text_:von in 868) [ClassicSimilarity], result of:
              0.053123046 = score(doc=868,freq=18.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.44215417 = fieldWeight in 868, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=868)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
  16. Pfeffer, J.: Online-Tutorials an deutschen Universitäts- und Hochschulbibliotheken : Verbreitung, Typologie und Analyse am Beispiel von LOTSE, DISCUS und BibTutor (2005) 0.01
    0.008674958 = product of:
      0.026024872 = sum of:
        0.026024872 = product of:
          0.052049745 = sum of:
            0.052049745 = weight(_text_:von in 4837) [ClassicSimilarity], result of:
              0.052049745 = score(doc=4837,freq=12.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.43322086 = fieldWeight in 4837, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4837)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Masterarbeit befasst sich mit einer besonderen Form der Vermittlung von Informationskompetenz: dem bibliothekarischen Online-Tutorial. Nach einer Einführung in das Thema Informationskompetenz bzw. Vermittlung von Informationskompetenz wird versucht, vor dem Hintergrund des übergeordneten Themas E-Learning eine Typologie des Online-Tutorials zu erstellen und einen quantitativen Überblick über den Einsatz von Tutorials an deutschen Hochschulbibliotheken zu geben. Aufbauend auf der Zusammenstellung eines Katalogs von Analyse- und Bewertungskriterien für Online-Tutorials werden drei ausgewählte Tutorials, die als besonders zukunftsträchtig und vorbildlich gelten können, einer bewertenden Analyse unterzogen. Die Master's Thesis zeigt, dass Online-Tutorials potenziell eine effiziente und effektive Form der Vermittlung von Informationskompetenz darstellen, auch wenn sie den Auskunftsbibliothekar oder den "teaching librarian" nie vollständig ersetzen können. Außerdem wird deutlich, dass sich trotz einiger herausragender Beispiele das deutsche Hochschulbibliothekswesen nur zögerlich des Online-Tutorials annimmt, wobei die Scheu vor dem ggf. beträchtlichen Entwicklungsaufwand und mangelnde Kooperation die Haupthindernisse für eine flächendeckende Verbreitung sein dürften.
  17. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.01
    0.008517909 = product of:
      0.025553726 = sum of:
        0.025553726 = product of:
          0.05110745 = sum of:
            0.05110745 = weight(_text_:von in 4495) [ClassicSimilarity], result of:
              0.05110745 = score(doc=4495,freq=34.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.42537796 = fieldWeight in 4495, product of:
                  5.8309517 = tf(freq=34.0), with freq of:
                    34.0 = termFreq=34.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4495)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
  18. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.01
    0.008347482 = product of:
      0.025042446 = sum of:
        0.025042446 = product of:
          0.050084893 = sum of:
            0.050084893 = weight(_text_:von in 318) [ClassicSimilarity], result of:
              0.050084893 = score(doc=318,freq=16.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.416867 = fieldWeight in 318, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Lizentiatsarbeit gibt im ersten theoretischen Teil einen Überblick über das Indexieren von Dokumenten. Sie zeigt die verschiedenen Typen von Indexen sowie die wichtigsten Aspekte bezüglich einer Indexsprache auf. Diverse manuelle und automatische Indexierungsverfahren werden präsentiert. Spezielle Aufmerksamkeit innerhalb des ersten Teils gilt den Schlagwortregistern, deren charakteristische Merkmale und Eigenheiten erörtert werden. Zusätzlich werden die gängigen Kriterien zur Bewertung von Indexen sowie die Masse zur Evaluation von Indexierungsverfahren und Indexierungsergebnissen vorgestellt. Im zweiten Teil der Arbeit werden fünf reale Bücher einer statistischen Untersuchung unterzogen. Zum einen werden die lexikalischen und syntaktischen Bestandteile der fünf Buchregister ermittelt, um den Inhalt von Schlagwortregistern zu erschliessen. Andererseits werden aus den Textausschnitten der Bücher Indexterme maschinell extrahiert und mit den Schlagworteinträgen in den Buchregistern verglichen. Das Hauptziel der Untersuchungen besteht darin, eine Indexierungsmethode, die auf linguistikorientierter Extraktion der Indexterme und Termhäufigkeitsgewichtung basiert, im Hinblick auf ihren Gebrauchswert für eine automatische Indexierung zu testen. Die Gewichtungsmethode ist die inverse Seitenhäufigkeit, eine Methode, welche von der inversen Dokumentfrequenz abgeleitet wurde, zur automatischen Erstellung von Schlagwortregistern für deutschsprachige Texte. Die Prüfung der Methode im statistischen Teil führte nicht zu zufriedenstellenden Resultaten.
  19. May, M.: Fachspezifische Vermittlung von Informationskompetenz in der Universität : Umsetzung und Akzeptanz am Beispiel des Faches Biologie der TU Darmstadt (2008) 0.01
    0.008347482 = product of:
      0.025042446 = sum of:
        0.025042446 = product of:
          0.050084893 = sum of:
            0.050084893 = weight(_text_:von in 1405) [ClassicSimilarity], result of:
              0.050084893 = score(doc=1405,freq=16.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.416867 = fieldWeight in 1405, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1405)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die vorliegende Arbeit untersucht am Beispiel des Studienfaches Biologie an der TU Darmstadt die Möglichkeiten der Vermittlung fachspezifischer Informationskompetenz als integralem Bestandteil der neuen Bachelor-Studiengänge durch die ULB Darmstadt und die Akzeptanz dieser Vermittlung durch die Professoren des Fachbereichs Biologie. Grundlage der Untersuchung bilden eine Einführung in die Entwicklung der Vermittlung von Informationskompetenz im Bibliothekswesen, eine Darstellung der spezifischen Anforderungen des Faches Biologie an die Vermittlung von Informationskompetenz, eine Beschreibung der Veranstaltungen zur Vermittlung dieser Schlüsselqualifikation im Fachbereich Biologie der TUD und eine Darlegung der Aktivitäten der ULB Darmstadt zur Vermittlung von Informationskompetenz sowie insbesondere die Ergebnisse leitfadengestützter qualitativer Interviews, die mit den Professorinnen und Professoren des Fachbereichs Biologie durchgeführt wurden. Die Ergebnisse der Untersuchung zeigen deutlich, dass Informationskompetenz nicht nur von den Bibliothekaren, sondern auch von den Professorinnen und Professoren als unabdingbare Schlüsselqualifikation für Studium und Forschung angesehen wird. Es wird festgestellt, welche Schulungszeitpunkte und -modelle von den Professorinnen und Professoren favorisiert werden. Die Ergebnisse zeigen aber auch die Schwierigkeiten bei der Vermittlung fachspezifischer Informationskompetenz in dem naturwissenschaftlichen Fach Biologie auf und lassen Probleme der Professorinnen und Professoren bei der Akzeptanz der Vermittlung durch die Bibliothek erkennen. Es wird notwendig sein, bei der Vermittlung von Informationskompetenz eine enge inhaltliche Verbindung zur universitären Lehre des Faches Biologie herzustellen.
  20. Gerber, A.: Vergleich von Suchmaschinen und Katalogen : Schwerpunkt deutschsprachiger Suchmaschinen Stand 2002 (2002) 0.01
    0.008263586 = product of:
      0.024790756 = sum of:
        0.024790756 = product of:
          0.049581513 = sum of:
            0.049581513 = weight(_text_:von in 4005) [ClassicSimilarity], result of:
              0.049581513 = score(doc=4005,freq=2.0), product of:
                0.12014598 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04503309 = queryNorm
                0.41267726 = fieldWeight in 4005, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4005)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    

Languages

  • d 149
  • e 6
  • f 2
  • More… Less…

Types