Search (181 results, page 1 of 10)

  • × type_ss:"x"
  1. Czechowski, M.: Konzept zur Realisierung eines digitalen Firmenarchivs am Beispiel Deutsche Lufthansa AG (2006) 0.04
    0.04468974 = product of:
      0.08937948 = sum of:
        0.08687113 = weight(_text_:da in 109) [ClassicSimilarity], result of:
          0.08687113 = score(doc=109,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.42410251 = fieldWeight in 109, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0625 = fieldNorm(doc=109)
        0.0025083479 = product of:
          0.0050166957 = sum of:
            0.0050166957 = weight(_text_:a in 109) [ClassicSimilarity], result of:
              0.0050166957 = score(doc=109,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.10191591 = fieldWeight in 109, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=109)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Die vorliegende Diplomarbeit zeigt auf, wie ein digitales, web-basiertes Wirtschaftsarchiv trotz begrenzter Ressourcen realisiert werden kann. Dabei werden auch die Probleme der Langzeitarchivierung thematisiert und der neue ISO-Standard PDF/A als neuer Lösungsansatz vorgestellt. Weiter wird ein Information-Retrieval-System vorgestellt, das die mitunter arbeitsaufwändige inhaltliche Erschließung eigenständig durchführt und sowohl Laien als auch Spezialisten eine angemessene Recherchemöglichkeit bietet. Das Konzept ist ausschliesslich auf private Wirtschaftsarchive ausgerichtet, da rechtliche Aspekte - die z.B. in der revissionsicheren Archivierung eine Rolle spielen - nicht berücksichtigt werden.
  2. Lamparter, A.: Kompetenzprofil von Information Professionals in Unternehmen (2015) 0.04
    0.03955808 = product of:
      0.07911616 = sum of:
        0.07601224 = weight(_text_:da in 769) [ClassicSimilarity], result of:
          0.07601224 = score(doc=769,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.3710897 = fieldWeight in 769, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0546875 = fieldNorm(doc=769)
        0.0031039226 = product of:
          0.006207845 = sum of:
            0.006207845 = weight(_text_:a in 769) [ClassicSimilarity], result of:
              0.006207845 = score(doc=769,freq=4.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.12611452 = fieldWeight in 769, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=769)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der Masterarbeit eine Begriffsbestimmung unternommen. Mit Hilfe dreier Methoden, einer Auswertung von relevanter Fachliteratur, die Untersuchung von einschlägigen Stellenausschreibungen und das Führen von Experteninterviews, wird ein Kompetenzprofil für Information Professionals erstellt. 16 Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst.
    Content
    Masterarbeit an der Hochschule Hannover, Fakultät III - Medien, Information und Design. Trägerin des VFI-Förderpreises 2015, Vgl.: urn:nbn:de:bsz:960-opus4-5280. http://serwiss.bib.hs-hannover.de/frontdoor/index/index/docId/528. Vgl. auch: Knoll, A. (geb. Lamparter): Kompetenzprofil von Information Professionals in Unternehmen. In: Young information professionals. 1(2016) S.1-11.
  3. Martins, S. de Castro: Modelo conceitual de ecossistema semântico de informações corporativas para aplicação em objetos multimídia (2019) 0.04
    0.038870484 = product of:
      0.07774097 = sum of:
        0.07523262 = weight(_text_:da in 117) [ClassicSimilarity], result of:
          0.07523262 = score(doc=117,freq=6.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.36728358 = fieldWeight in 117, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.03125 = fieldNorm(doc=117)
        0.0025083479 = product of:
          0.0050166957 = sum of:
            0.0050166957 = weight(_text_:a in 117) [ClassicSimilarity], result of:
              0.0050166957 = score(doc=117,freq=8.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.10191591 = fieldWeight in 117, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=117)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Information management in corporate environments is a growing problem as companies' information assets grow and their need to use them in their operations. Several management models have been practiced with application on the most diverse fronts, practices that integrate the so-called Enterprise Content Management. This study proposes a conceptual model of semantic corporate information ecosystem, based on the Universal Document Model proposed by Dagobert Soergel. It focuses on unstructured information objects, especially multimedia, increasingly used in corporate environments, adding semantics and expanding their recovery potential in the composition and reuse of dynamic documents on demand. The proposed model considers stable elements in the organizational environment, such as actors, processes, business metadata and information objects, as well as some basic infrastructures of the corporate information environment. The main objective is to establish a conceptual model that adds semantic intelligence to information assets, leveraging pre-existing infrastructure in organizations, integrating and relating objects to other objects, actors and business processes. The approach methodology considered the state of the art of Information Organization, Representation and Retrieval, Organizational Content Management and Semantic Web technologies, in the scientific literature, as bases for the establishment of an integrative conceptual model. Therefore, the research will be qualitative and exploratory. The predicted steps of the model are: Environment, Data Type and Source Definition, Data Distillation, Metadata Enrichment, and Storage. As a result, in theoretical terms the extended model allows to process heterogeneous and unstructured data according to the established cut-outs and through the processes listed above, allowing value creation in the composition of dynamic information objects, with semantic aggregations to metadata.
    Content
    Tese de Doutorado apresentada ao Programa de Pós-Graduação da Universidade Federal Fluminense como requisito parcial para obtenção do título de Doutor em Ciência da Informação.
    Imprint
    Niteroi : UNIVERSIDADE FEDERAL FLUMINENSE / INSTITUTO DE ARTE E COMUNICAÇÃO SOCIAL / DEPARTAMENTO DE CIÊNCIA DA INFORMAÇÃO
  4. Bredack, J.: Terminologieextraktion von Mehrwortgruppen in kunsthistorischen Fachtexten (2013) 0.04
    0.03855482 = product of:
      0.07710964 = sum of:
        0.07601224 = weight(_text_:da in 1054) [ClassicSimilarity], result of:
          0.07601224 = score(doc=1054,freq=8.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.3710897 = fieldWeight in 1054, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1054)
        0.0010974023 = product of:
          0.0021948046 = sum of:
            0.0021948046 = weight(_text_:a in 1054) [ClassicSimilarity], result of:
              0.0021948046 = score(doc=1054,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.044588212 = fieldWeight in 1054, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1054)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Mehrwortgruppen sind als lexikalische Einheit zu betrachten und bestehen aus mindestens zwei miteinander in Verbindung stehenden Begriffen. Durch die Ver-bindung mehrerer Fachwörter transportieren sie in Fachtexten aussagekräftige Informationen. Sie vermitteln eindeutige Informationen, da aus den resultierenden Beziehungen zwischen den in Verbindung stehenden Fachbegriffen die inhaltliche Bedeutung eines Fachtextes ersichtlich wird. Demzufolge ist es sinnvoll, Mehrwort-gruppen aus Fachtexten zu extrahieren, da diese die Inhalte eindeutig repräsentieren. So können Mehrwortgruppen für eine inhaltliche Erschließung genutzt und beispiels-weise als Indexterme im Information Retrieval bereitgestellt werden. Mehrwortgruppen enthalten Informationen eines Textes, die in natürlicher Sprache vorliegen. Zur Extraktion von Informationen eines elektronisch vorliegenden Textes kommen maschinelle Verfahren zum Einsatz, da Sprache Strukturen aufweist, die maschinell verarbeitet werden können. Eine mögliche Methode Mehrwortgruppen innerhalb von elektronisch vorliegenden Fachtexten zu identifizieren und extrahieren ist ein algorithmisches Verfahren. Diese Methode erkennt Wortfolgen durch das Bilden von Wortmustern, aus denen sich eine Mehrwortgruppe in einem Text zusammensetzt. Die Wortmuster repräsentieren somit die einzelnen Bestandteile einer Mehrwortgruppe. Bereits an mathematischen Fachtexten wurde dieses Verfahren untersucht und analysiert. Relevante Mehrwortgruppen, die ein mathematisches Konzept oder mathe-matischen Inhalt repräsentierten, konnten erfolgreich extrahiert werden. Zum Einsatz kam das Indexierungssystem Lingo, mit dessen Programmodul sequencer eine algorithmische Identifizierung und Extraktion von Mehrwortgruppen möglich ist. In der vorliegenden Arbeit wird dieses algorithmische Verfahren unter Einsatz der Software Lingo genutzt, um Mehrwortgruppen aus kunsthistorischen Fachtexten zu extrahieren. Als Datenquelle dienen kunsthistorische Lexikonartikel aus dem Reallexikon zur Deutschen Kunstgeschichte, welches in deutscher Sprache vorliegt. Es wird untersucht, ob positive Ergebnisse im Sinne von fachterminologischen Mehrwort-gruppen mit kunsthistorischen Inhalten erzeugt werden können. Dabei soll zusätzlich die Einbindung von Funktionswörtern innerhalb einer Mehrwortgruppe erfolgen. Funktionswörter definieren Artikel, Konjunktionen und Präpositionen, die für sich alleinstehend keine inhaltstragende Bedeutung besitzen, allerdings innerhalb einer Mehrwortgruppe syntaktische Funktionen erfüllen. Anhand der daraus resultierenden Ergebnisse wird analysiert, ob das Hinzufügen von Funktionswörtern innerhalb einer Mehrwortgruppe zu positiven Ergebnissen führt. Ziel soll es demnach sein, fach-terminologische Mehrwortgruppen mit kunsthistorischen Inhalten zu erzeugen, unter Einbindung von Funktionswörtern. Bei der Extraktion fachterminologischer Mehrwortgruppen wird im Folgenden insbesondere auf die Erstellung von Wortmustern eingegangen, da diese die Basis liefern, mit welchen das Programmmodul sequencer Wortfolgen innerhalb der kunst-historischen Lexikonartikel identifiziert. Eine Einordung der Indexierungsergebnisse erfolgt anhand selbst gebildeter Kriterien, die definieren, was unter einer fach-terminologischen Mehrwortgruppe zu verstehen ist.
    Language
    a
  5. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.03
    0.033901725 = product of:
      0.1356069 = sum of:
        0.1356069 = product of:
          0.40682068 = sum of:
            0.40682068 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.40682068 = score(doc=973,freq=2.0), product of:
                0.3619285 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04269026 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  6. Helmbrecht-Schaar, A.: Entwicklung eines Verfahrens der automatischen Klassifizierung für Textdokumente aus dem Fachbereich Informatik mithilfe eines fachspezifischen Klassifikationssystems (2007) 0.03
    0.033517305 = product of:
      0.06703461 = sum of:
        0.065153345 = weight(_text_:da in 1410) [ClassicSimilarity], result of:
          0.065153345 = score(doc=1410,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.31807688 = fieldWeight in 1410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.046875 = fieldNorm(doc=1410)
        0.0018812611 = product of:
          0.0037625222 = sum of:
            0.0037625222 = weight(_text_:a in 1410) [ClassicSimilarity], result of:
              0.0037625222 = score(doc=1410,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.07643694 = fieldWeight in 1410, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1410)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit werden die Möglichkeiten für eine Automatisierung des Klassifizierens von Online Dokumenten evaluiert und ein mögliches Verfahren prototypisch implementiert. Dabei werden Verfahren der Terminologieextraktion angewandt, um die Sinnträger der Texte zu ermitteln. Klassifikationen, die im Allg. nur wenige weiterführende Informationen enthalten, sollen über einen Mapping Mechanismus auf die das Dokument beschreibenden Terme angewandt werden. Im Ansatz wird bereits sichtbar, dass es keine rein automatische Klassifikation geben kann, da es immer einen Bruch zwischen den intellektuell erstellten Klassifikationen und den aus den Texten generierten Informationen geben wird. Es wird ein semiautomatisches Verfahren vorgestellt, das durch Anwenderaktionen lernt und zu einer sukzessiven Automatisierung führen kann. Die Ergebnisse der semiautomatischen Klassifizierung werden mit denen einer manuellen verglichen. Im Anschluss wird ein Ausblick auf Möglichkeiten und Grenzen der automatischen Klassifikation gegeben.
  7. Poser, M.: Analyse und Bewertung ausgewählter Funktionen von ALEPH-Katalogen in Bezug auf Anforderungen und Erwartungen aus Benutzersicht (2008) 0.03
    0.03160042 = product of:
      0.06320084 = sum of:
        0.06142717 = weight(_text_:da in 3269) [ClassicSimilarity], result of:
          0.06142717 = score(doc=3269,freq=4.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.29988578 = fieldWeight in 3269, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.03125 = fieldNorm(doc=3269)
        0.00177367 = product of:
          0.00354734 = sum of:
            0.00354734 = weight(_text_:a in 3269) [ClassicSimilarity], result of:
              0.00354734 = score(doc=3269,freq=4.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.072065435 = fieldWeight in 3269, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3269)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Aus Benutzersicht verkörpern Online-Kataloge "the most visible form of library automation." Entweder über das lokale Netzwerk innerhalb der Bibliothek oder eingebunden in das Web-Portal von außerhalb zugänglich, bildet der Online-Katalog den zentralen Ausgangspunkt für die Recherche in Bibliotheksbeständen. Er ist zugleich Kernbestandteil eines integrierten Bibliothekssystems, dessen Entwicklung "has been one of movement from centralized systems, designed and controlled by system designers and programmers, to more and more distributed and customizable systems." Letztgenannte Eigenschaft kennzeichnet auch das Bibliothekssystem ALEPH 500, das vor zehn Jahren mit der Einführung durch die Vorarlberger Landesbibliothek in Bregenz/ Österreich seinen Einzug in den deutschsprachigen Raum startete. Bereits ein Jahr später wurde die Anwendung von den vier Berliner Universitätsbibliotheken in Betrieb genommen und ist seit 2002 auch in der Senatsbibliothek Berlin im Einsatz. Der wiederholte Kontakt mit dem ALEPH-System - sei es im Rahmen von Literaturrecherche, Praktikum oder universitärem Veranstaltungsangebot - gab Anlass für eine nähere Beschäftigung mit diesem Thema. Ziel der vorliegenden Arbeit ist die Auseinandersetzung mit der Funktionalität von ALEPH-Katalogen und das Herausstellen ihrer Unterschiede im Umfang und in der Ausgestaltung des Angebots hinsichtlich der Ausrichtung auf die Bedürfnisse der Benutzer. Angesichts der gestiegenen Erwartungshaltung in Bezug auf eine schnelle und zuverlässige Informationsbeschaffung soll der Frage nachgegangen werden, in welchem Ausmaß die verfügbaren Möglichkeiten des Softwaresystems ausgeschöpft bzw. zusätzlich ergänzt werden. Die Untersuchung beschränkt sich ausschließlich auf deutschsprachige Kataloge, um aufgrund der ähnlichen Randbedingungen eine bessere Vergleichbarkeit zu gewährleisten. Auf Aspekte der Gestaltung und der Barrierefreiheit wird dabei nicht näher eingegangen, da diese wiederum selbst eigenständige Themengebiete darstellen. Auch der Bereich der Online-Hilfen ist von der Untersuchung ausgenommen, da diese bereits an anderer Stelle ausführlich behandelt wurden. Die Aufbereitung der Ergebnisse betrachtet die untersuchten Online-Kataloge überwiegend in ihrer Gesamtheit, einige beispielhafte Fälle werden zur Demonstration hervorgehoben. Die genauen Resultate sind im Einzelnen erfasst und können der Tabelle im Anhang entnommen werden.
    Content
    Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Arts (B. A.) im Studiengang Bibliotheks- und Informationswissenschaft Philosophische Fakultät I. Vgl. unter: http://www.agi-imc.de/internet.nsf/26efb65f701b0871c125751a00413614/fc471b3b08c89850c125788e004b5270/$FILE/Myriam_Poser.pdf.
    Location
    A
  8. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.03
    0.030966803 = product of:
      0.061933607 = sum of:
        0.056502875 = product of:
          0.16950862 = sum of:
            0.16950862 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.16950862 = score(doc=4997,freq=2.0), product of:
                0.3619285 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04269026 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.0054307333 = product of:
          0.010861467 = sum of:
            0.010861467 = weight(_text_:a in 4997) [ClassicSimilarity], result of:
              0.010861467 = score(doc=4997,freq=24.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.22065444 = fieldWeight in 4997, product of:
                  4.8989797 = tf(freq=24.0), with freq of:
                    24.0 = termFreq=24.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    While classifications are heavily used to categorize web content, the evolution of the web foresees a more formal structure - ontology - which can serve this purpose. Ontologies are core artifacts of the Semantic Web which enable machines to use inference rules to conduct automated reasoning on data. Lightweight ontologies bridge the gap between classifications and ontologies. A lightweight ontology (LO) is an ontology representing a backbone taxonomy where the concept of the child node is more specific than the concept of the parent node. Formal lightweight ontologies can be generated from their informal ones. The key applications of formal lightweight ontologies are document classification, semantic search, and data integration. However, these applications suffer from the following problems: the disambiguation accuracy of the state of the art NLP tools used in generating formal lightweight ontologies from their informal ones; the lack of background knowledge needed for the formal lightweight ontologies; and the limitation of ontology reuse. In this dissertation, we propose a novel solution to these problems in formal lightweight ontologies; namely, faceted lightweight ontology (FLO). FLO is a lightweight ontology in which terms, present in each node label, and their concepts, are available in the background knowledge (BK), which is organized as a set of facets. A facet can be defined as a distinctive property of the groups of concepts that can help in differentiating one group from another. Background knowledge can be defined as a subset of a knowledge base, such as WordNet, and often represents a specific domain.
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  9. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.03
    0.030713584 = product of:
      0.12285434 = sum of:
        0.12285434 = weight(_text_:da in 4499) [ClassicSimilarity], result of:
          0.12285434 = score(doc=4499,freq=4.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.59977156 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
      0.25 = coord(1/4)
    
    Content
    Diplomarbeit zur Erlangung des Grades eines Diplom-Wirtschaftsinformatikers (FH) der Hochschule Wismar. Vgl.: http://www.wi.hs-wismar.de/~cleve/vorl/projects/da/DA-FS-Haas.pdf.
  10. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.03
    0.030171491 = product of:
      0.060342982 = sum of:
        0.056502875 = product of:
          0.16950862 = sum of:
            0.16950862 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.16950862 = score(doc=855,freq=2.0), product of:
                0.3619285 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04269026 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.0038401082 = product of:
          0.0076802163 = sum of:
            0.0076802163 = weight(_text_:a in 855) [ClassicSimilarity], result of:
              0.0076802163 = score(doc=855,freq=12.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.15602624 = fieldWeight in 855, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Converting UDC numbers manually to a complex format such as the one mentioned above is an unrealistic expectation; supporting building these representations, as far as possible automatically, is a well-founded requirement. An additional advantage of this approach is that the existing records could also be processed and converted. In my dissertation I would like to prove also that it is possible to design and implement an algorithm that is able to convert pre-coordinated UDC numbers into the introduced format by identifying all their elements and revealing their whole syntactic structure as well. In my dissertation I will discuss a feasible way of building a UDC-specific XML schema for describing the most detailed and complicated UDC numbers (containing not only the common auxiliary signs and numbers, but also the different types of special auxiliaries). The schema definition is available online at: http://piros.udc-interpreter.hu#xsd. The primary goal of my research is to prove that it is possible to support building, retrieving, and analyzing UDC numbers without compromises, by taking the whole syntactic richness of the scheme by storing the UDC numbers reserving the meaning of pre-coordination. The research has also included the implementation of a software that parses UDC classmarks attended to prove that such solution can be applied automatically without any additional effort or even retrospectively on existing collections.
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  11. Waldhör, A.: Erstellung einer Konkordanz zwischen Basisklassifikation (BK) und Regensburger Verbundklassifikation (RVK) für den Fachbereich Recht (2012) 0.03
    0.027931087 = product of:
      0.055862173 = sum of:
        0.054294456 = weight(_text_:da in 596) [ClassicSimilarity], result of:
          0.054294456 = score(doc=596,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.26506406 = fieldWeight in 596, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0390625 = fieldNorm(doc=596)
        0.0015677174 = product of:
          0.0031354348 = sum of:
            0.0031354348 = weight(_text_:a in 596) [ClassicSimilarity], result of:
              0.0031354348 = score(doc=596,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.06369744 = fieldWeight in 596, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=596)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Ziel der vorliegenden Arbeit war die Erstellung einer Konkordanz zwischen der Regensburger Verbundklassifikation (RVK) und der Basisklassifikation (BK) für den Fachbereich Recht. Die Erstellung von Konkordanzen ist im bibliothekarischen Bereichmehrfach von Interesse, da einerseits Notationen verschiedener Klassifikationssysteme zusammengeführt werden und somit eine höhere Datendichte erreicht werden kann. Zum anderen können Konkordanzen in der Suchmaschinentechnologie Primo als "Werkzeug" bei der facettierten Suche eingesetzt werden. Die Arbeit gliedert sich in zwei Teile. Der erste (theoretische) Teil beschäftigt sich mit Klassifikationen als Hilfsmittel für die Freihandaufstellung und als Teil der klassifikatorischen Sacherschließung. Im Anschluss daran werden drei große Klassifikationssysteme, die im Rahmen der Sacherschließung in Österreich eine wesentliche Rolle spielen (Verbundklassifikationen des OBV), dargestellt. Die Basisklassifikation und die Regensburger Verbundklassifikation werden kurz beschrieben, es wird untersucht wie juristische Medien in diesen Klassifikationen abgebildet werden. In diesem Zusammenhang wird auch der aktuelle Stand der RVK Erweiterung betreffend österreichisches Recht erörtert. Die Dewey - Dezimal - Klassifikation (DDC) wird auf ihre generelle Eignung als Klassifikation für juristische Medien genauer, anhand mehrerer praktischer Beispiele, untersucht. Insbesondere wird die "Konkordanzfähigkeit" der DDC im Hinblick auf die beiden anderen Systeme betreffend den Fachbereich Recht ermittelt. Ein kurzer Ausblick auf Unterschiede zwischen der angloamerikanischen Rechtsordnung und dem europäischen Civil Law ergänzt die Ausführungen zur DDC. Der zweite (praktische) Teil beinhaltet die Konkordanztabelle in Form einer Microsoft Excel Tabelle mit einem ausführlichen Kommentar. Diese Tabelle liegt auch in einer verkürzten Form vor, die für die praktische Umsetzung in der Verbunddatenbank vorgesehen ist.
  12. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.03
    0.025261655 = product of:
      0.05052331 = sum of:
        0.0452023 = product of:
          0.1356069 = sum of:
            0.1356069 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.1356069 = score(doc=701,freq=2.0), product of:
                0.3619285 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04269026 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.0053210096 = product of:
          0.010642019 = sum of:
            0.010642019 = weight(_text_:a in 701) [ClassicSimilarity], result of:
              0.010642019 = score(doc=701,freq=36.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.2161963 = fieldWeight in 701, product of:
                  6.0 = tf(freq=36.0), with freq of:
                    36.0 = termFreq=36.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  13. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.02
    0.024584174 = product of:
      0.04916835 = sum of:
        0.0452023 = product of:
          0.1356069 = sum of:
            0.1356069 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.1356069 = score(doc=5820,freq=2.0), product of:
                0.3619285 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04269026 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.0039660465 = product of:
          0.007932093 = sum of:
            0.007932093 = weight(_text_:a in 5820) [ClassicSimilarity], result of:
              0.007932093 = score(doc=5820,freq=20.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.16114321 = fieldWeight in 5820, product of:
                  4.472136 = tf(freq=20.0), with freq of:
                    20.0 = termFreq=20.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    The successes of information retrieval (IR) in recent decades were built upon bag-of-words representations. Effective as it is, bag-of-words is only a shallow text understanding; there is a limited amount of information for document ranking in the word space. This dissertation goes beyond words and builds knowledge based text representations, which embed the external and carefully curated information from knowledge bases, and provide richer and structured evidence for more advanced information retrieval systems. This thesis research first builds query representations with entities associated with the query. Entities' descriptions are used by query expansion techniques that enrich the query with explanation terms. Then we present a general framework that represents a query with entities that appear in the query, are retrieved by the query, or frequently show up in the top retrieved documents. A latent space model is developed to jointly learn the connections from query to entities and the ranking of documents, modeling the external evidence from knowledge bases and internal ranking features cooperatively. To further improve the quality of relevant entities, a defining factor of our query representations, we introduce learning to rank to entity search and retrieve better entities from knowledge bases. In the document representation part, this thesis research also moves one step forward with a bag-of-entities model, in which documents are represented by their automatic entity annotations, and the ranking is performed in the entity space.
    This proposal includes plans to improve the quality of relevant entities with a co-learning framework that learns from both entity labels and document labels. We also plan to develop a hybrid ranking system that combines word based and entity based representations together with their uncertainties considered. At last, we plan to enrich the text representations with connections between entities. We propose several ways to infer entity graph representations for texts, and to rank documents using their structure representations. This dissertation overcomes the limitation of word based representations with external and carefully curated information from knowledge bases. We believe this thesis research is a solid start towards the new generation of intelligent, semantic, and structured information retrieval.
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  14. Ammann, A.: Klassifikation dynamischer Wissensräume : multifaktorielle Wechselbeziehungen zur Generierung und Gestaltung konstellativer dynamischer und mehrdimensionaler Wissensräume mit einem Fokus der Anwendung in der Zahn-, Mund- und Kieferheilkunde am Beispiel der enossalen Implantologie (2012) 0.02
    0.023700316 = product of:
      0.04740063 = sum of:
        0.04607038 = weight(_text_:da in 1751) [ClassicSimilarity], result of:
          0.04607038 = score(doc=1751,freq=4.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.22491434 = fieldWeight in 1751, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.0013302524 = product of:
          0.0026605048 = sum of:
            0.0026605048 = weight(_text_:a in 1751) [ClassicSimilarity], result of:
              0.0026605048 = score(doc=1751,freq=4.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.054049075 = fieldWeight in 1751, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1751)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Eine Herausforderung dieser Arbeit lag in der Struktur der Wissensordnung zu dieser Thematik. Dabei sei erlaubt, mit dem erforderlichen Respekt sich auch in andere Fachgebiete hineinzuwagen, um diese Thematik in den historischen Kontext zur Entwicklung der Ordnungsprinzipien des Wissens zu stellen. Nur dadurch wird ersichtlich, wie diese Fragestellung in den jeweiligen Epochen sich immer wieder aufs Neue ergeben hat, altes und neues Wissen zu ordnen, um damit den Wissenstransfer zu fördern. Neue Erkenntnisse zu gewinnen bedeutet auch alte Erkenntnisse verstehen zu lernen. Da Wissen keine Grenzen hat, ist diese komplexe Thematik auch nicht fakultativ behandelt, sondern wurde interdisziplinär im Rahmen der Möglichkeiten in den jeweiligen Kontext gestellt. Für diese Arbeit ist die Methodik des deduktiven Prinzips der Wissensordnung gewählt worden.
    Im Teil A wird, neben dem menschlichen Urbedürfnis mit dem Streben nach dem Wissen, auf die vier epochalen Konvergenz-Zyklen mit ihren Kompetenzprofilen der Wissensordnungen im Wissenstransfer eingegangen. Insbesondere die Verschiebungen der Wissenschaftssprachen nehmen dabei einen erheblichen Einfluss auf die Abgrenzung der Klassifikationen zum impliziten, visuellen und explizitem Wissen. Daher werden den Äquivalenztypen im expliziten Wissensraum einer besonderen Aufmerksamkeit gewidmet, denn in unserer multilingualen Wissenslandschaft entstehen im Wissenstransfer zum Verfügungs-, Orientierungs- und Handlungswissen Artefakte, die auch auf die Gestaltung der Lernziel-Taxonomien einen Einfluss haben. Im Teil B werden zunächst die Arten, Merkmale und Klassifikationskonzepte des Wissens behandelt. Bei dem Versuch einer neuen Wissensordnung wird das kartesische / geodätische Koordinatensystem in ein Raum-Zeit-Gefüge gestellt, aus dem sich elf Wissensräume herauskristallisiert haben, die sowohl in ihren Definitionen, den damit verbundenen Ableitungen und Beispielen und einer Verortung im Wissensraum klassifiziert werden. Im Projekt <K-Space Visual Library in Dental Medicine> wird die problem- und aufgabenorientierte Navigation in den jeweiligen Wissensräumen erläutert und in der Diskussion die noch bevorstehenden Konvergenz-Forderungen der meist noch bestehenden proprietären digitalen Technologien und Programme skizziert, um diese bei der Modellierung der Wissensräume mit einzubeziehen.
    Im Teil C erfolgt zunächst auszugsweise die Beschreibung bestehender Dokumenten-Analysesysteme für die Bildung von aufgaben- und problemorientierten Wissensräumen, um dann in der Ableitung die Wissensmodelle nach dem Molekül- und Legoprinzip vorzustellen. Mit einer Diskussion zur gesamten Thematik und den Ergebnissen mit den sich aus der Arbeit ergebenden Thesen schließt diese Arbeit, die durch einen Rückblick, einen Einblick und einen Ausblick den Diskurs um die Genese einer neuen Ordnung des Wissens ein wenig beleben kann. Es ist dabei verständlich, dass diese Arbeit eine besondere Beziehung zur Zahn-, Mund- und Kieferheilkunde hat, da es die berufliche Wissenswelt ist, in der ich lebe.
  15. Schneider, A.: ¬Die Verzeichnung und sachliche Erschließung der Belletristik in Kaysers Bücherlexikon und im Schlagwortkatalog Georg/Ost (1980) 0.02
    0.022438597 = product of:
      0.08975439 = sum of:
        0.08975439 = sum of:
          0.008779218 = weight(_text_:a in 5309) [ClassicSimilarity], result of:
            0.008779218 = score(doc=5309,freq=2.0), product of:
              0.049223874 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04269026 = queryNorm
              0.17835285 = fieldWeight in 5309, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.109375 = fieldNorm(doc=5309)
          0.08097517 = weight(_text_:22 in 5309) [ClassicSimilarity], result of:
            0.08097517 = score(doc=5309,freq=2.0), product of:
              0.149494 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04269026 = queryNorm
              0.5416616 = fieldWeight in 5309, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.109375 = fieldNorm(doc=5309)
      0.25 = coord(1/4)
    
    Date
    5. 8.2006 13:07:22
  16. Kaluza, H.: Methoden und Verfahren bei der Archivierung von Internetressourcen : "The Internet Archive" und PANDORA (2002) 0.02
    0.02234487 = product of:
      0.04468974 = sum of:
        0.043435566 = weight(_text_:da in 973) [ClassicSimilarity], result of:
          0.043435566 = score(doc=973,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.21205126 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
        0.0012541739 = product of:
          0.0025083479 = sum of:
            0.0025083479 = weight(_text_:a in 973) [ClassicSimilarity], result of:
              0.0025083479 = score(doc=973,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.050957955 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=973)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    "Die vorliegende Arbeit befasst sich mit den Methoden und Verfahren bei der Archivierung von Internetressourcen. Ziel ist es, anhand einer vergleichenden Beschreibung zweier zur Zeit aktiver, bzw. im Aufbau befindlicher Projekte, die Grundprobleme dieser speziellen Art der Archivierung darzustellen und deren unterschiedliche Vorgehensweisen beim Aufbau des Archivs zu beschreiben und zu vergleichen. Daraus erfolgt eine Diskussion über grundsätzliche Fragestellungen zu diesem Thema. Hierzu ist es vonnöten, zuerst auf das besondere Medium Internet, insbesondere auf das World Wide Web (WWW), einzugehen, sowie dessen Geschichte und Entstehung zu betrachten. Weiterhin soll ein besonderes Augenmerk auf die Datenmenge, die Datenstruktur und die Datentypen (hier vor allem im World Wide Web) gelegt werden. Da die daraus entstehenden Probleme für Erschließung und Retrieval, die Qualität und die Fluktuation der Angebote im Web eine wichtige Rolle im Rahmen der Archivierung von Internetressourcen darstellen, werden diese gesondert mittels kurzer Beschreibungen bestimmter Instrumente und Projekte zur Lösung derselben beschrieben. Hier finden insbesondere Suchmaschinen und Webkataloge, deren Arbeitsweise und Aufbau besondere Beachtung. Weiterhin sollen die "Virtuelle Bibliothek" und das "Dublin Core"- Projekt erläutert werden. Auf dieser Basis wird dann speziell auf das allgemeine Thema der Archivierung von Internetressourcen eingegangen. Ihre Grundgedanken und ihre Ziele sollen beschrieben und erste Diskussionsfragen und Diskrepanzen aufgezeigt werden. Ein besonderes Augenmerk gilt hier vor allem den technischen und rechtlichen Problemen, sowie Fragen des Jugendschutzes und der Zugänglichkeit zu mittlerweile verbotenen Inhalten. Einzelne Methoden der Archivierung, die vor allem im folgenden Teil anhand von Beispielen Beachtung finden, werden kurz vorgestellt. Im darauf folgenden Teil werden zwei Archivierungsprojekte detailliert beschrieben und analysiert. Einem einführenden Überblick über das jeweilige Projekt, folgen detaillierte Beschreibungen zu Projektverlauf, Philosophie und Vorgehensweise. Die Datenbasis und das Angebot, sowie die Funktionalitäten werden einer genauen Untersuchung unterzogen. Stärken und Schwächen werden genannt, und wenn möglich, untereinander verglichen. Hier ist vor allem auch die Frage von Bedeutung, ob das Angebot a) den Ansprüchen und Zielsetzungen des Anbieters genügt, und ob es b) den allgemeinen Grundfragen der Archivierung von Internetressourcen gleichkommt, die in Kapitel 3 genannt worden sind. Auf Basis aller Teile soll dann abschließend der derzeitige Stand im Themengebiet diskutiert werden. Die Arbeit schließt mit einer endgültigen Bewertung und alternativen Lösungen."
  17. Zudnik, J.: Artifizielle Semantik : Wider das Chinesische Zimmer (2017) 0.02
    0.02234487 = product of:
      0.04468974 = sum of:
        0.043435566 = weight(_text_:da in 4426) [ClassicSimilarity], result of:
          0.043435566 = score(doc=4426,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.21205126 = fieldWeight in 4426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.03125 = fieldNorm(doc=4426)
        0.0012541739 = product of:
          0.0025083479 = sum of:
            0.0025083479 = weight(_text_:a in 4426) [ClassicSimilarity], result of:
              0.0025083479 = score(doc=4426,freq=2.0), product of:
                0.049223874 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04269026 = queryNorm
                0.050957955 = fieldWeight in 4426, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4426)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    "Talks at Google" hatte kürzlich einen Star zu Gast (Google 2016). Der gefeierte Philosoph referierte in gewohnt charmanter Art sein berühmtes Gedankenexperiment, welches er vor 35 Jahren ersonnen hatte. Aber es war keine reine Geschichtslektion, sondern er bestand darauf, daß die Implikationen nach wie vor Gültigkeit besaßen. Die Rede ist natürlich von John Searle und dem Chinesischen Zimmer. Searle eroberte damit ab 1980 die Welt der Philosophie des Geistes, indem er bewies, daß man Computer besprechen kann, ohne etwas von ihnen zu verstehen. In seinen Worten, man könne ohnehin die zugrunde liegenden Konzepte dieser damned things in 5 Minuten erfassen. Dagegen verblassten die scheuen Einwände des AI-Starapologeten Ray Kurzweil der im Publikum saß, die jüngste Akquisition in Googles Talentpool. Searle wirkte wie die reine Verkörperung seiner Thesen, daß Berechnung, Logik und harte Fakten angesichts der vollen Entfaltung polyvalenter Sprachspiele eines menschlichen Bewußtseins im sozialen Raum der Kultur keine Macht über uns besitzen. Doch obwohl große Uneinigkeit bezüglich der Gültigkeit des chinesischen Zimmers besteht, und die logische Struktur des Arguments schon vor Jahrzehnten widerlegt worden ist, u. a. von Copeland (1993), wird erstaunlicherweise noch immer damit gehandelt. Es hat sich von einem speziellen Werkzeug zur Widerlegung der Starken AI These, wonach künstliche Intelligenz mit einer symbolverarbeitenden Rechenmaschine geschaffen werden kann, zu einem Argument für all die Fälle entwickelt, in welchen sich Philosophen des Geistes mit unbequemen Fragen bezüglich der Berechenbarkeit des menschlichen Geistes auseinandersetzen hätten können. Es ist also mit den Jahrzehnten zu einer Immunisierungs- und Konservierungsstrategie für all jene geworden, die sich Zeit erkaufen wollten, sich mit der wirklichen Komplexität auseinander zu setzen. Denn die Definition von Sinn ist eben plastisch, vor allem wenn die Pointe der Searlschen Geschichte noch immer eine hohe Suggestionskraft besitzt, da ihre Konklusion, man könne nicht von einer computationalen Syntax zu einer Semantik kommen, noch immer unzureichend widerlegt ist.
  18. Schneider, W.: ¬Ein verteiltes Bibliotheks-Informationssystem auf Basis des Z39.50 Protokolls (1999) 0.02
    0.021717783 = product of:
      0.08687113 = sum of:
        0.08687113 = weight(_text_:da in 4773) [ClassicSimilarity], result of:
          0.08687113 = score(doc=4773,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.42410251 = fieldWeight in 4773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
      0.25 = coord(1/4)
    
    Abstract
    Diese Diplomarbeit beschreibt ein verteiltes Bibliothes-Informationssystem für bibliographische Datenbnaken im Internet. Der Name des Systems ist ZACK. Der Benutzer kann mit ZACK in einer oder mehreren bibliographischen Datenbanken nach einem Dokument suchen und die Treffer in die eigene lokale Datenbank übernehmen. Mit der Übernahme der Datensätze aus einer fremden Datenbank wird die Erfassung neuer Dokumente wesentlich erleichtert, da die Eigenkatalogisierung auf ein Minimum beschränkt werden kann. Bei der verteilten Suche mit ZACK wird parallel in mehreren Datenbanken gesucht. Dubletten werden als solche erkannt
  19. Weidler, D.: Usability-Inspektionen und Usability-Tests : Komplementäre Methoden für die Evaluation eines E-Learning-Moduls (2004) 0.02
    0.01900306 = product of:
      0.07601224 = sum of:
        0.07601224 = weight(_text_:da in 3706) [ClassicSimilarity], result of:
          0.07601224 = score(doc=3706,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.3710897 = fieldWeight in 3706, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3706)
      0.25 = coord(1/4)
    
    Abstract
    Benutzer von E-Learning-Produkten sind einer Doppelbeiastung ausgesetzt: Aufnehmen von Lernstoff und Erlernen des Umgangs mit Programmen. Der Gefahr, Benutzer einer kognitiven Überlastung auszusetzen, kann eine gute Usability entgegenwirken. Es werden Benutzerfreundlichkeit von Teilen eines E-Learning-Moduls »Automatische Inhaltserschließung« untersucht mit analytischen Inspektionsmethoden und empirischen Usability-Tests. Da der Designprozeß nicht iterativ gestaltet wurde, dienen die Ergebnisse aus den Inspektionen zur Vorbereitung der Tests. Die Testergebnisse werden genutzt, um Erkenntnisse der expertenorientierten Methoden zu verifizieren. Es wird analysiert, ob die Inspektionsmethoden Probleme aufdecken, die auch von den Teilnehmern an den Usability-Tests als solche empfunden wurden. Zur praktischen Umsetzung der Lösungsansätze werden Usability-Reports verfaßt und ein Storyboard konzipiert.
  20. Wille, J.: Automatisches Klassifizieren bibliographischer Beschreibungsdaten : Vorgehensweise und Ergebnisse (2006) 0.02
    0.01900306 = product of:
      0.07601224 = sum of:
        0.07601224 = weight(_text_:da in 6090) [ClassicSimilarity], result of:
          0.07601224 = score(doc=6090,freq=2.0), product of:
            0.20483522 = queryWeight, product of:
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.04269026 = queryNorm
            0.3710897 = fieldWeight in 6090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7981725 = idf(docFreq=990, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6090)
      0.25 = coord(1/4)
    
    Footnote
    http://www.fbi.fh-koeln.de/institut/papers/abschlussarbeiten/abschlussarbeiten_ausgabe.php Vgl. auch: http://eprints.rclis.org/archive/00006659/01/wille_-_automatisches_klassifizieren_bibliographischer_beschreibungsdaten_(diplomarbeit).pdf. Für die Software vgl.: http://blackwinter.de/da/.

Languages

  • d 136
  • e 39
  • f 2
  • a 1
  • hu 1
  • pt 1
  • More… Less…

Types

Subjects