Search (312 results, page 15 of 16)

  • × type_ss:"x"
  1. Nagelschmidt, M.: Integration und Anwendung von "Semantic Web"-Technologien im betrieblichen Wissensmanagement (2012) 0.00
    7.893822E-4 = product of:
      0.003946911 = sum of:
        0.003946911 = product of:
          0.007893822 = sum of:
            0.007893822 = weight(_text_:information in 11) [ClassicSimilarity], result of:
              0.007893822 = score(doc=11,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.09697737 = fieldWeight in 11, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=11)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Das Wissensmanagement ist ein Themenkomplex mit zahlreichen fachlichen Bezügen, insbesondere zur Wirtschaftsinformatik und der Management-, Personal- und Organisationslehre als Teilbereiche der Betriebswirtschaftslehre. In einem weiter gefassten Verständnis bestehen aber auch Bezüge zur Organisationspsychologie, zur Informatik und zur Informationswissenschaft. Von den Entwicklungen in diesen Bezugsdisziplinen können deshalb auch Impulse für die Konzepte, Methodiken und Technologien des Wissensmanagements ausgehen. Die aus der Informatik stammende Idee, das World Wide Web (WWW) zu einem semantischen Netz auszubauen, kann als eine solche impulsgebende Entwicklung gesehen werden. Im Verlauf der vergangenen Dekade hat diese Idee einen hinreichenden Reifegrad erreicht, so dass eine potenzielle Relevanz auch für das Wissensmanagement unterstellt werden darf. Im Rahmen dieser Arbeit soll anhand eines konkreten, konzeptionellen Ansatzes demonstriert werden, wie dieser technologische Impuls für das Wissensmanagement nutzenbringend kanalisiert werden kann. Ein derartiges Erkenntnisinteresse erfordert zunächst die Erarbeitung eines operationalen Verständnisses von Wissensmanagement, auf dem die weiteren Betrachtungen aufbauen können. Es werden außerdem die Architektur und die Funktionsweise eines "Semantic Web" sowie XML und die Ontologiesprachen RDF/RDFS und OWL als maßgebliche Werkzeuge für eine ontologiebasierte Wissensrepräsentation eingeführt. Anschließend wird zur Integration und Anwendung dieser semantischen Technologien in das Wissensmanagement ein Ansatz vorgestellt, der eine weitgehend automatisierte Wissensmodellierung und daran anschließende, semantische Informationserschließung der betrieblichen Datenbasis beschreibt. Zur Veranschaulichung wird dazu auf eine fiktive Beispielwelt aus der Fertigungsindustrie zurückgegriffen. Schließlich soll der Nutzen dieser Vorgehensweise durch Anwendungsszenarien des Information Retrieval (IR) im Kontext von Geschäftsprozessen illustriert werden.
  2. Witschel, H.F.: Text, Wörter, Morpheme : Möglichkeiten einer automatischen Terminologie-Extraktion (2004) 0.00
    7.893822E-4 = product of:
      0.003946911 = sum of:
        0.003946911 = product of:
          0.007893822 = sum of:
            0.007893822 = weight(_text_:information in 126) [ClassicSimilarity], result of:
              0.007893822 = score(doc=126,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.09697737 = fieldWeight in 126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=126)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit einem Teilgebiet des TextMining, versucht also Information (in diesem Fall Fachterminologie) aus natürlichsprachlichem Text zu extrahieren. Die der Arbeit zugrundeliegende These besagt, daß in vielen Gebieten des Text Mining die Kombination verschiedener Methoden sinnvoll sein kann, um dem Facettenreichtum natürlicher Sprache gerecht zu werden. Die bei der Terminologie-Extraktion angewandten Methoden sind statistischer und linguistischer (bzw. musterbasierter) Natur. Um sie herzuleiten, wurden einige Eigenschaften von Fachtermini herausgearbeitet, die für deren Extraktion relevant sind. So läßt sich z.B. die Tatsache, daß viele Fachbegriffe Nominalphrasen einer bestimmten Form sind, direkt für eine Suche nach gewissen POS-Mustern ausnützen, die Verteilung von Termen in Fachtexten führte zu einem statistischen Ansatz - der Differenzanalyse. Zusammen mit einigen weiteren wurden diese Ansätze in ein Verfahren integriert, welches in der Lage ist, aus dem Feedback eines Anwenders zu lernen und in mehreren Schritten die Suche nach Terminologie zu verfeinern. Dabei wurden mehrere Parameter des Verfahrens veränderlich belassen, d.h. der Anwender kann sie beliebig anpassen. Bei der Untersuchung der Ergebnisse anhand von zwei Fachtexten aus unterschiedlichen Domänen wurde deutlich, daß sich zwar die verschiedenen Verfahren gut ergänzen, daß aber die optimalen Werte der veränderbaren Parameter, ja selbst die Auswahl der angewendeten Verfahren text- und domänenabhängig sind.
  3. Sünkler, S.: Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität (2012) 0.00
    7.893822E-4 = product of:
      0.003946911 = sum of:
        0.003946911 = product of:
          0.007893822 = sum of:
            0.007893822 = weight(_text_:information in 479) [ClassicSimilarity], result of:
              0.007893822 = score(doc=479,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.09697737 = fieldWeight in 479, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=479)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Imprint
    Hamburg : HAW, Department Information
  4. Zuckerstätter, B.: Klassifikation und Beschlagwortung : zur Verwendung von Schlagwörtern in Aufstellungsklassifikationen (2012) 0.00
    7.893822E-4 = product of:
      0.003946911 = sum of:
        0.003946911 = product of:
          0.007893822 = sum of:
            0.007893822 = weight(_text_:information in 594) [ClassicSimilarity], result of:
              0.007893822 = score(doc=594,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.09697737 = fieldWeight in 594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=594)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Wien, Univ., Lehrgang Library and Information Studies, Master-Thesis, 2012
  5. Weiner, U.: Vor uns die Dokumentenflut oder Automatische Indexierung als notwendige und sinnvolle Ergänzung zur intellektuellen Sacherschließung (2012) 0.00
    7.893822E-4 = product of:
      0.003946911 = sum of:
        0.003946911 = product of:
          0.007893822 = sum of:
            0.007893822 = weight(_text_:information in 598) [ClassicSimilarity], result of:
              0.007893822 = score(doc=598,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.09697737 = fieldWeight in 598, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=598)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Wien, Univ., Lehrgang Library and Information Studies, Master-Thesis, 2012
  6. Dietiker, S.: Cognitive Map einer Bibliothek : eine Überprüfung der Methodentauglichkeit im Bereich Bibliothekswissenschaft - am Beispiel der Kantonsbibliothek Graubünden (2016) 0.00
    7.893822E-4 = product of:
      0.003946911 = sum of:
        0.003946911 = product of:
          0.007893822 = sum of:
            0.007893822 = weight(_text_:information in 4570) [ClassicSimilarity], result of:
              0.007893822 = score(doc=4570,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.09697737 = fieldWeight in 4570, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4570)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Content
    Diese Publikation entstand im Rahmen einer Thesis zum Bachelor of Science FHO in Information Science. Vgl. unter: http://www.htwchur.ch/uploads/media/CSI_78_Dietiker.pdf.
  7. Liebwald, D.: Evaluierung juristischer Datenbanken (2003) 0.00
    7.8144856E-4 = product of:
      0.003907243 = sum of:
        0.003907243 = product of:
          0.007814486 = sum of:
            0.007814486 = weight(_text_:information in 2490) [ClassicSimilarity], result of:
              0.007814486 = score(doc=2490,freq=4.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.0960027 = fieldWeight in 2490, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2490)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in Mitt. VÖB 57(2004) H.2, S.71-73 (J. Pauser):"Bei der hier zu besprechenden Arbeit handelt es sich um die Ende 2003 erfolgte Drucklegung einer juristischen Dissertation an der Universität Wien. Die Autorin zielt darauf ab, "Grundlagen, Entstehung, verschiedene Ansätze und Entwicklungstendenzen desjuristischen Information Retrieval aufzuzeigen [...], um schließlich die Qualität der wichtigsten österreichischen Rechtsdatenbanken anhand der gewonnenen Erkenntnisse messen zu können". Das gewählte Thema ist spannend und wohl für jeden Informationswissenschaftler und praktischen Juristen von Relevanz. Elektronische Datenbanken mit Rechtsinformation, seien sie nun online oder offline, revolutionieren seit geraumer Zeit die juristische Arbeit nicht nur in Österreich. Das Recherchieren mittels dieser neuen "Werkzeuge" gehört bereits standardmäßig zur Grundausbildung eines jedes Juristen. Die Kenntnis der umfassenden Möglichkeiten dieser neuen juristischen Informationsquellen beeinflusst massiv die Qualität und vor allem Schnelligkeit des juristischen Arbeitens. Vor diesem Hintergrund ist es immens wichtig, dass die juristischen Datenbanken den Bedürfnissen der Nutzer möglichst zweckmäßig entgegenkommen. Doris Liebwald definiert im ersten Teil ihrer Arbeit den Begriff "Information Retrieval" als "Repräsentation, Speicherung und Organisation von Informationen und der Zugriff auf Informationen" und versucht anschließend Bewertungskriterien für Rechtsdatenbanken aufzustellen. Hinsichtlich der Daten (Gesetze, Gerichtsentscheidungen, juristische Literatur) fordert sie "Vollständigkeit", "Aktualität" und "Authentizität"; in technischer Sicht ergeben sich "Inhaltserschließung", "Suchfunktionen/-möglichkeiten", sowie die "Benutzerfreundlichkeit der Systemoberfläche" etwa durch einfache Bedienbarkeit, Verständlichkeit, Anreicherung durch Hilfefunktionen usw. als Bewertungskriterien, Schließlich sind aus praktisch-ökonomischer Sicht noch "Kosten" und der "Support" aufgenommen.
  8. Poser, M.: Analyse und Bewertung ausgewählter Funktionen von ALEPH-Katalogen in Bezug auf Anforderungen und Erwartungen aus Benutzersicht (2008) 0.00
    7.70594E-4 = product of:
      0.00385297 = sum of:
        0.00385297 = weight(_text_:a in 3269) [ClassicSimilarity], result of:
          0.00385297 = score(doc=3269,freq=4.0), product of:
            0.053464882 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046368346 = queryNorm
            0.072065435 = fieldWeight in 3269, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.03125 = fieldNorm(doc=3269)
      0.2 = coord(1/5)
    
    Content
    Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Arts (B. A.) im Studiengang Bibliotheks- und Informationswissenschaft Philosophische Fakultät I. Vgl. unter: http://www.agi-imc.de/internet.nsf/26efb65f701b0871c125751a00413614/fc471b3b08c89850c125788e004b5270/$FILE/Myriam_Poser.pdf.
    Location
    A
  9. Roth, A.: Modellierung und Anwendung von Ontologien am Beispiel "Operations Research & Management Science" (2002) 0.00
    6.8111526E-4 = product of:
      0.0034055763 = sum of:
        0.0034055763 = weight(_text_:a in 5011) [ClassicSimilarity], result of:
          0.0034055763 = score(doc=5011,freq=2.0), product of:
            0.053464882 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046368346 = queryNorm
            0.06369744 = fieldWeight in 5011, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5011)
      0.2 = coord(1/5)
    
  10. Meyer, A.: Begriffsrelationen im Kategoriensystem der Wikipedia : Entwicklung eines Relationeninventars zur kollaborativen Anwendung (2010) 0.00
    6.8111526E-4 = product of:
      0.0034055763 = sum of:
        0.0034055763 = weight(_text_:a in 4429) [ClassicSimilarity], result of:
          0.0034055763 = score(doc=4429,freq=2.0), product of:
            0.053464882 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046368346 = queryNorm
            0.06369744 = fieldWeight in 4429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
      0.2 = coord(1/5)
    
  11. Fischer, M.: Sacherschliessung - quo vadis? : Die Neuausrichtung der Sacherschliessung im deutschsprachigen Raum (2015) 0.00
    6.8111526E-4 = product of:
      0.0034055763 = sum of:
        0.0034055763 = weight(_text_:a in 2029) [ClassicSimilarity], result of:
          0.0034055763 = score(doc=2029,freq=2.0), product of:
            0.053464882 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046368346 = queryNorm
            0.06369744 = fieldWeight in 2029, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
      0.2 = coord(1/5)
    
    Location
    A
  12. Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002) 0.00
    6.742698E-4 = product of:
      0.0033713488 = sum of:
        0.0033713488 = weight(_text_:a in 1703) [ClassicSimilarity], result of:
          0.0033713488 = score(doc=1703,freq=4.0), product of:
            0.053464882 = queryWeight, product of:
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.046368346 = queryNorm
            0.06305726 = fieldWeight in 1703, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.153047 = idf(docFreq=37942, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1703)
      0.2 = coord(1/5)
    
  13. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.00
    6.315058E-4 = product of:
      0.003157529 = sum of:
        0.003157529 = product of:
          0.006315058 = sum of:
            0.006315058 = weight(_text_:information in 1076) [ClassicSimilarity], result of:
              0.006315058 = score(doc=1076,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.0775819 = fieldWeight in 1076, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1076)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
  14. Nimz, B.: ¬Die Erschließung im Archiv- und Bibliothekswesen unter besonderer Berücksichtigung elektronischer Informationsträger : ein Vergleich im Interesse der Professionalisierung und Harmonisierung (2001) 0.00
    6.315058E-4 = product of:
      0.003157529 = sum of:
        0.003157529 = product of:
          0.006315058 = sum of:
            0.006315058 = weight(_text_:information in 2442) [ClassicSimilarity], result of:
              0.006315058 = score(doc=2442,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.0775819 = fieldWeight in 2442, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2442)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Diese Arbeit dient der Professionalisierung und Harmonisierung der Erschließungsmethodik im Archiv- und Bibliothekswesen. Die Erschließung ist das Kernstück der archivarischen und bibliothekarischen Arbeit und Grundlage für die Benutzung durch die interessierte Öffentlichkeit. Hier wird, bildlich gesprochen, das gesät, was in der Benutzung geerntet wird und je gewissenhafter die Aussaat desto ertragreicher die Ernte. Der Bereich der Dokumentation wird, wo es für die Betrachtung der integrativen Momente in den Informationswissenschaften erforderlich erscheint, einbezogen. Das Hauptaugenmerk gilt jedoch der Archivwissenschaft und den Beziehungen zwischen der Archiv- und Bibliothekswissenschaft. Vornehmlich wird die Arbeit nationale Strukturen des Archivund Bibliothekswesens sowie ausgewählte Projekte und Tendenzen abhandeln. Auf eine erschöpfende Untersuchung aller Ausbildungsgänge auf dem Informationssektor wird verzichtet, da das Ziel dieser Arbeit nur die Betrachtung der integrativen Konzepte in der Ausbildung ist. Ziel der Publikation ist es, Angebote sowohl für die Grundlagenforschung als auch für die angewandte Forschung im Themenbereich Harmonisierung und Professionalisierung in der Erschließung der Informationswissenschaften zu machen. Sie kann als Diskussionsgrundlage für den interdisziplinären fachlichen Austausch dienen, der weitere Arbeiten folgen müssen. Es wird versucht, Wissen aus den Bereichen Archivwesen und Bibliothekswesen zu kumulieren und zu kommentieren. Vollständigkeit wird nicht beansprucht, sondern Wert auf Beispielhaftigkeit gelegt, zumal der rasante Technologiewandel zwangsläufig eine rasche Veralterung technischer Angaben zu den elektronischen Informationsträgern zur Folge hat. Bestand haben jedoch die theoretischen Überlegungen und abstrakten Betrachtungen sowie die getroffenen Aussagen zur Addition, Integration und Separation der Informationswissenschaften. In der Arbeit werden in dem Kapitel "Die Informationsgesellschaft" vorrangig die Auswirkungen der Informationsgesellschaft auf die Archive und Bibliotheken untersucht, wobei zunächst von der Klärung der Begriffe "Information" und "Informationsgesellschaft" und der Informationspolitik in der EU und in der Bundesrepublik ausgegangen wird.
  15. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.00
    6.315058E-4 = product of:
      0.003157529 = sum of:
        0.003157529 = product of:
          0.006315058 = sum of:
            0.006315058 = weight(_text_:information in 862) [ClassicSimilarity], result of:
              0.006315058 = score(doc=862,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.0775819 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=862)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
  16. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.00
    6.315058E-4 = product of:
      0.003157529 = sum of:
        0.003157529 = product of:
          0.006315058 = sum of:
            0.006315058 = weight(_text_:information in 3359) [ClassicSimilarity], result of:
              0.006315058 = score(doc=3359,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.0775819 = fieldWeight in 3359, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3359)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  17. Meier, P.: Visualisierung von Kommunikationsstrukturen für kollaboratives Wissensmanagement in der Lehre (2006) 0.00
    6.315058E-4 = product of:
      0.003157529 = sum of:
        0.003157529 = product of:
          0.006315058 = sum of:
            0.006315058 = weight(_text_:information in 3402) [ClassicSimilarity], result of:
              0.006315058 = score(doc=3402,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.0775819 = fieldWeight in 3402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3402)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Bei elektronisch vermittelten Kommunikationsprozessen im Kontext von kollaborativem Wissensmanagement in der Lehre entstehen sehr rasch komplexe Kommunikationsstrukturen mit reichhaltigen Verknüpfungen zu heterogenen Informationsmaterialien, die mit herkömmlichen Mitteln zu verfolgen und verfügbar zu machen sehr schnell schwierig bis unmöglich wird. Bisherige Formen von Orientierungshilfe werden eher durch konventionelle Mittel der Kommunikation und Interaktion unterstützt, und daher ist in der Regel kaum nachvollziehbar, wie Wissen, insbesondere dessen repräsentierende Konzepte zusammenhängt, sich entwickelt hat oder wo sich Wissenslücken ergeben. Eine fehlende Orientierung über die Kommunikationsprozesse hat u.a. zur Folge, dass (1) das Angebot elektronischer wissenschaftlicher Information nicht genutzt wird; (2) es zu Orientierungslosigkeit und kognitiven Überlastung kommt und damit die Wissensproduktion gehemmt wird; (3) Wissenslücken nicht aufgezeigt werden und somit in weiteren Diskursen nicht geschlossen werden können; (4) eine Unterstützung für die Moderation fehlt, um effizient Ursachen für Störungen in den Lernprozessen und Konflikten innerhalb der Gruppen zu erkennen; (5) die grundlegende Basis fehlt, um typische Fragen von Benutzern im Umgang mit einem kollaborativen Wissensmanagementsystem in der Lehre effizient beantworten zu können. In der vorliegenden Arbeit wird ein Konzept zur Visualisierung von Kommunikationsstrukturen vorgestellt, das zum Ziel hat, eine effiziente und effektive Orientierungs- und Navigationshilfe für ein kollaboratives Wissensmanagementsystem in der Lehre bereitzustellen. Dabei sollen typische Orientierungsfragen der Benutzer und der Moderation effizient beantwortet werden können. Das entwickelte Gesamtkonzept wurde in das Visualisierungssystem K3Vis umgesetzt und damit dessen Machbarkeit überprüft. K3Vis ist im Forschungsprojekt K3 integriert und steht für den produktiven Einsatz zur Verfügung. K3 steht für Kooperation, Kommunikation und InformationsKompetenz und ist ein von der Konstanzer Informationswissenschaft initiiertes Projekt im Kontext des kollaborativen Wissensmanagements in der Lehre. Im Rahmen dieser Arbeit wurden alle historischen, von den Studierenden kollaborativ erarbeiteten Arbeitsaufträge im Detail analysiert und dabei symptomatische Muster in Kommunikationsstrukturen ermittelt, die bei der Bewertung und der Moderation des Diskursverlaufs hilfreich sein können. An konkreten, "produktiven" Beispielen werden diese Diagnosemöglichkeiten anhand von Abbildungen diskutiert.
  18. Schönauer, S.: Wissensmanagement im Fokus kommunikativer Prozesse (2003) 0.00
    6.315058E-4 = product of:
      0.003157529 = sum of:
        0.003157529 = product of:
          0.006315058 = sum of:
            0.006315058 = weight(_text_:information in 3407) [ClassicSimilarity], result of:
              0.006315058 = score(doc=3407,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.0775819 = fieldWeight in 3407, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3407)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Der Untersuchungsgegenstand dieser Arbeit umfasst sowohl die theoretischen Konzepte zum Management von Wissen, als auch die Möglichkeit der Integration neuer Informations- und Kommunikationstechnologien in den Prozess des Wissensmanagements. Da eine kritische Betrachtung von Wissensmanagementkonzepten ohne der grundsätzlichen Darstellung des ökonomischen Umfeldes, sowie der Klärung der Frage, welche Faktoren die Entstehung von Wissen beeinflussen nicht möglich ist, werden im Rahmen dieser Arbeit auch diese Aspekte betrachtet. In Bezug auf die Integration neuer Informations- und Kommunikationstechnologien müssen neben den grundsätzlichen Charakteristika dieser Technologien auch die Bedeutung von Kommunikation und Information im Kontext des ökonomischen Systems, als auch im Kontext von Wissen untersucht werden. Aus der grundsätzlichen Darstellung der Zusammenhänge von Kommunikation und Wissen und der Bedeutung von Wissen für die Wirtschaft lassen sich einige grundlegende Anforderungen an das Management von Wissen stellen, anhand derer das Wissensmanagement untersucht wird. Eine Analyse der Charakteristika neuer Informations- und Kommunikationstechnologien und der Bedeutung von Kommunikation für die Wissensgenerierung können Hinweise darauf geben, welche Wissensmanagementkonzepte dem Untersuchungsgegenstand Wissen gerecht werden und welche Relevanz neue Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement haben.
  19. Brocke, J. vom: Referenzmodellierung : Gestaltung und Verteilung von Konstruktionsprozessen (2003) 0.00
    6.315058E-4 = product of:
      0.003157529 = sum of:
        0.003157529 = product of:
          0.006315058 = sum of:
            0.006315058 = weight(_text_:information in 3414) [ClassicSimilarity], result of:
              0.006315058 = score(doc=3414,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.0775819 = fieldWeight in 3414, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3414)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Series
    Advances in information systems and management science; 4
  20. Schaffner, V.: FRBR in MAB2 und Primo - ein kafkaesker Prozess? : Möglichkeiten der FRBRisierung von MAB2-Datensätzen in Primo exemplarisch dargestellt an Datensätzen zu Franz Kafkas "Der Process" (2011) 0.00
    6.315058E-4 = product of:
      0.003157529 = sum of:
        0.003157529 = product of:
          0.006315058 = sum of:
            0.006315058 = weight(_text_:information in 907) [ClassicSimilarity], result of:
              0.006315058 = score(doc=907,freq=2.0), product of:
                0.08139861 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046368346 = queryNorm
                0.0775819 = fieldWeight in 907, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.03125 = fieldNorm(doc=907)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Content
    Master Thesis im Rahmen des Universitätslehrganges Library and Information Studies MSc an der Universität Wien in Kooperation mit der Österreichischen Nationalbibliothek. Vgl. auch: http://eprints.rclis.org/16193/1/Master%20Thesis_Schaffner%20Verena.pdf.

Languages

  • d 264
  • e 41
  • f 2
  • a 1
  • hu 1
  • pt 1
  • More… Less…

Types

Themes

Subjects

Classifications