Search (36 results, page 1 of 2)

  • × year_i:[2000 TO 2010}
  • × type_ss:"r"
  1. Krause, J.; Mayr, P.: Allgemeiner Bibliothekszugang und Varianten der Suchtypologie : Konsequenzen für die Modellbildung in vascoda (2007) 0.01
    0.009268376 = product of:
      0.055610254 = sum of:
        0.055610254 = weight(_text_:der in 5998) [ClassicSimilarity], result of:
          0.055610254 = score(doc=5998,freq=24.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5984551 = fieldWeight in 5998, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5998)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Arbeitsbericht konzentriert sich zunächst auf Integrationsmöglichkeiten des Dreiländerkatalogs (DLK), der prototypisch für fachübergreifende Bibliothekskataloge (Allgemeinzugang) in vascoda steht. Der Bericht geht auf interne Designvarianten ein, welche Grundüberlegungen zum sogenannten Allgemeinzugang bebildern. Abschnitt 2 befasst sich mit Vorschlägen zur Erweiterung der Suchtypologie von vascoda. Eine Änderung der fachgebietsorientierten Grundkonzeption von vascoda lässt sich weder aus der Literatursichtung noch aus der vascoda-internen Diskussion anlässlich der Contentintegration von DLK und der Einführung der FAST-Suchmaschinentechnologie für vascoda-Teilmengen ableiten.
    Content
    Der vollständige Text steht unter: http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/pdf/ab_38.pdf als PDF-Datei zur Verfügung.
  2. Mayr, P.: Informationsangebote für das Wissenschaftsportal vascoda : eine Bestandsaufnahme (2006) 0.01
    0.008580848 = product of:
      0.051485084 = sum of:
        0.051485084 = weight(_text_:der in 154) [ClassicSimilarity], result of:
          0.051485084 = score(doc=154,freq=28.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.55406165 = fieldWeight in 154, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=154)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Arbeitsbericht ist eine vorläufige Bestandsaufnahme der Informationsangebote der Virtuellen Fachbibliotheken und Informationsverbünde, die in das interdisziplinäre Wissenschaftsportal vascoda integriert werden sollen. Die strukturierte Beschreibung der heterogenen Informationsangebote, insbesondere Internetquellen, Fachdatenbanken/Bibliographien, SSG Online-Contents, OPACs, Volltextserver und Digitalisate konzentriert sich auf ausgewählte Aspekte, die eine Grundlage für weitere Arbeiten und Analysen im Projekt "Modellbildung und Heterogenitätsbehandlung" sind. Die Bestandsaufnahme liegt in der Version 2 vor. Neben der knappen Charakterisierung der Informationstypen und Fachinformationsanbieter wird vor allem der IST-Stand der strukturellen und semantischen Heterogenität der analysierten Bestände beschrieben. Zu diesem Zweck wurden die einzelnen Informationsangebote über deren Eingangswebseiten untersucht und zusätzlich bestehende Daten aus vorherigen Erhebungen einbezogen. Die Bestandsaufnahme der Informationsangebote und Kollektionen zeigt eine große Vielfalt an unterschiedlichen formalen und inhaltlichen Erschließungsformen. Die beobachtbare strukturelle und semantische Heterogenität zwischen den einzelnen Beständen hat weit reichende Folgen für die kontrollierte und begründete Integration und Modellierung der Dokumente. Der Bericht ist verfügbar unter http://www.gesis.orq/Publikationen/Berichte/IZ Arbeitsberichte/pdf/ab 37.pdf und kann über den IZ-Bestellservice als Broschüre angefordert werden.
    Content
    Der vollständige Text steht unter www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/pdf/ab_37.pdf als PDF-Datei zur Verfügung.
  3. Klatt, R.; Gavrilides, K.; Kleinsimglinhausen, K.; Feldmann, M.: Nutzung elektronischer Information in der Hochschulausbildung : Barrieren und Potentiale der innovativen Mediennutzung im Lernalltag der Hochschulen (2001) 0.01
    0.007944323 = product of:
      0.047665935 = sum of:
        0.047665935 = weight(_text_:der in 6245) [ClassicSimilarity], result of:
          0.047665935 = score(doc=6245,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5129615 = fieldWeight in 6245, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=6245)
      0.16666667 = coord(1/6)
    
  4. Gödert, W.; Hartmann, S.; Hubrich, J.; Lepsky, K.; Schulenborg, K.; Trunk, D.: Semantische Anreicherung der Schlagwortnormdatei : Ergebnisbericht (2004) 0.01
    0.0073322766 = product of:
      0.04399366 = sum of:
        0.04399366 = weight(_text_:der in 1815) [ClassicSimilarity], result of:
          0.04399366 = score(doc=1815,freq=46.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.473442 = fieldWeight in 1815, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1815)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Schlagwortnormdatei (SWD) ist mit einem Umfang von ca. 150.000 Sachschlagwörtern das umfangreichste terminologisch kontrollierte deutschsprachige Vokabular, das zur verbalen Inhaltserschließung von Dokumenten genutzt werden und somit prinzipiell auch als Kandidat für den Aufbau semantischer Navigationsstrukturen im Online-Retrieval angesehen werden kann. Die Strukturierung der Schlagwörter in der SWD folgt den Vorgaben zur Ausweisung begrifflicher Strukturen in einem Thesaurus. Durch Veränderungen des der Erstellung der SWD zu Grunde liegenden Regelwerkes RSWK hat sich im Verlauf der Zeit ein Nebeneinander von unterschiedlich dichten Beziehungsnetzen ergeben, ohne dass hierzu bislang Details erhoben und dokumentiert wären. In dieser Studie werden Aussagen über den Aufwand gemacht, der erforderlich wäre, die semantische Relationenstruktur der Schlagwortnormdatei (SWD) zu homogenisieren. Hierzu wird eine quantitative und qualitative Analyse am Beispiel mehrerer Themengebiete vorgenommen. Die Berücksichtigung mehrerer Gebiete soll es gestatten, möglichst repräsentative Aussagen für das gesamte Vokabular abzuleiten. Die Autorinnen und Autoren der Studien sind sich angesichts der zur Verfügung stehenden begrenzten Ressourcen bewusst, dass dieser Anspruch nur mit Einschränkungen eingelöst werden kann. Die für die Analyse der Relationenstruktur benutzten Kriterien orientieren sich an Grundsätzen zur Gestaltung strukturierten Vokabulars sowie insbesondere der Eignung der SWD, zum Aufbau bestandsunabhängiger semantischer Navigationssysteme im Online-Retrieval, für Zwecke des wörterbuchgestützten automatischen Indexierens.
    Mit diesem Kriterium lässt es sich nicht vermeiden, dass Relationen als fehlend charakterisiert werden, auch wenn sie vom Regelwerk nicht gefordert werden. Die Analysen berücksichtigen allerdings die Verzahnung der SWD zum Regelwerk RSWK insoweit, als in der Regel nur bereits vorhandene Schlagwörter betrachtet wurden und nicht auch Lücken analysiert wurden, die allein deswegen vorhandenen sind, weil Schlagwörter wegen nicht vorhandener Bücher (noch) nicht gebildet wurden. Die Funktion der SWD zur terminologischen Ansetzung von Schlagwörtern ist nicht Gegenstand der Studie. Der Bericht dokumentiert zusätzlich Inkonsistenzen, die während der Analysen ermittelt wurden. Ziel dieses Projekts ist es, die tatsächlich erreichte Situation der Relationenstruktur der SWD zu ermitteln sowie Vorschläge auszuarbeiten, an welchen Stellen eine Nachbearbeitung der Relationen erfolgen sollte und wie dies realisiert werden könnte. Bei dieser Analyse wird nicht differenziert zwischen Relationierungen, die vom Regelwerk RSWK gedeckt sind und Relationierungen, die allgemeinen Regeln zur Darstellung begrifflicher Strukturen entsprechen.
    Footnote
    Diese Studie wurde im Auftrag der Deutschen Bibliothek durchgeführt und nicht veröffentlicht.
  5. Reiner, U.: VZG-Projekt Colibri : Bewertung von automatisch DDC-klassifizierten Titeldatensätzen der Deutschen Nationalbibliothek (DNB) (2009) 0.01
    0.006890594 = product of:
      0.041343562 = sum of:
        0.041343562 = weight(_text_:der in 2675) [ClassicSimilarity], result of:
          0.041343562 = score(doc=2675,freq=26.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4449227 = fieldWeight in 2675, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
      0.16666667 = coord(1/6)
    
    Abstract
    Das VZG-Projekt Colibri/DDC beschäftigt sich seit 2003 mit automatischen Verfahren zur Dewey-Dezimalklassifikation (Dewey Decimal Classification, kurz DDC). Ziel des Projektes ist eine einheitliche DDC-Erschließung von bibliografischen Titeldatensätzen und eine Unterstützung der DDC-Expert(inn)en und DDC-Laien, z. B. bei der Analyse und Synthese von DDC-Notationen und deren Qualitätskontrolle und der DDC-basierten Suche. Der vorliegende Bericht konzentriert sich auf die erste größere automatische DDC-Klassifizierung und erste automatische und intellektuelle Bewertung mit der Klassifizierungskomponente vc_dcl1. Grundlage hierfür waren die von der Deutschen Nationabibliothek (DNB) im November 2007 zur Verfügung gestellten 25.653 Titeldatensätze (12 Wochen-/Monatslieferungen) der Deutschen Nationalbibliografie der Reihen A, B und H. Nach Erläuterung der automatischen DDC-Klassifizierung und automatischen Bewertung in Kapitel 2 wird in Kapitel 3 auf den DNB-Bericht "Colibri_Auswertung_DDC_Endbericht_Sommer_2008" eingegangen. Es werden Sachverhalte geklärt und Fragen gestellt, deren Antworten die Weichen für den Verlauf der weiteren Klassifizierungstests stellen werden. Über das Kapitel 3 hinaus führende weitergehende Betrachtungen und Gedanken zur Fortführung der automatischen DDC-Klassifizierung werden in Kapitel 4 angestellt. Der Bericht dient dem vertieften Verständnis für die automatischen Verfahren.
  6. Mandl, T.: Einsatz neuronaler Netze als Transferkomponenten beim Retrieval in heterogenen Dokumentbeständen (2000) 0.01
    0.006837384 = product of:
      0.0410243 = sum of:
        0.0410243 = weight(_text_:der in 6563) [ClassicSimilarity], result of:
          0.0410243 = score(doc=6563,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44148692 = fieldWeight in 6563, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=6563)
      0.16666667 = coord(1/6)
    
    Abstract
    Die zunehmende weltweite Vernetzung und der aufbau von digitalen Bibliotheken führt zu neuen Möglichkeiten bei der Suche in mehreren Datenbeständen. Dabei entsteht das Problem der semantischen Heterogenität, da z.B. Begriffe in verschiedenen Kontexten verschiedene Bedeutung haben können. Die dafür notwendigen Transferkomponenten bilden eine neue Herausforderung, für die neuronale Netze gut geeignet sind
    Content
    Zugleich Dissertation des Verfassers an der Universität Hildesheim
    Footnote
    Der vollständige Text steht unter http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/ als PDF-Datei zur Verfügung
  7. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.01
    0.006837384 = product of:
      0.0410243 = sum of:
        0.0410243 = weight(_text_:der in 1076) [ClassicSimilarity], result of:
          0.0410243 = score(doc=1076,freq=40.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44148692 = fieldWeight in 1076, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
  8. Krause, J.: Integration von Ansätzen neuronaler Netzwerke in die Systemarchitektur von ViBSoz und CARMEN (2001) 0.01
    0.006553731 = product of:
      0.039322384 = sum of:
        0.039322384 = weight(_text_:der in 1698) [ClassicSimilarity], result of:
          0.039322384 = score(doc=1698,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4231716 = fieldWeight in 1698, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
      0.16666667 = coord(1/6)
    
    Abstract
    Neben Crosskonkordanzen, qualitativ-deduktiven Methoden und statistischen Verfahren gehört zu den Grundstrategien der Behandlung semantischer Heterogenität auch der Einsatz neuronaler Netze in Transfermodulen zwischen Dokumentenbeständen mit unterschiedlichen Inhaltserschließungssystemen. Sowohl die Frage, welches Netzwerkmodell am erfolgsversprechendsten ist, als auch die Frage, ob neuronale Netze im Kontext integrierter Fachinformationssysteme in der Praxis einen Mehrwert erbringen können, ist bisher in der Forschung kaum behandelt worden. Deshalb wurde diese Thematik in einer Kooperation vom IZ mit der Universität Hildesheim im Rahmen eines Promotionsvorhabens (Mandl, T.) erforscht
    Footnote
    Der vollständige Text steht unter http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/ als PDF-Datei zur Verfügung
  9. Oberhauser, O.; Seidler, W.: Reklassifizierung grösserer fachspezifischer Bibliotheksbestände : Durchführbarkeitsstudie für die Fachbibliothek für Germanistik an der Universität Wien (2000) 0.01
    0.006486512 = product of:
      0.03891907 = sum of:
        0.03891907 = weight(_text_:der in 4631) [ClassicSimilarity], result of:
          0.03891907 = score(doc=4631,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4188313 = fieldWeight in 4631, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4631)
      0.16666667 = coord(1/6)
    
    Imprint
    Wien : Verein zur Förderung der Informationswissenschaft
  10. Krause, J.: Standardisierung von der Heterogenität her denken : zum Entwicklungsstand bilateraler Transferkomponenten für digitale Fachbibliotheken (2003) 0.01
    0.006486512 = product of:
      0.03891907 = sum of:
        0.03891907 = weight(_text_:der in 1863) [ClassicSimilarity], result of:
          0.03891907 = score(doc=1863,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4188313 = fieldWeight in 1863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
      0.16666667 = coord(1/6)
    
    Abstract
    Lösungen für die Probleme beim Aufbau fachwissenschaftlicher Informationsangebote im Web führen weit über die bisher gewohnten Denkweisen von Informationszentren und Bibliothekaren hinaus. Die diskutierte Leitlinie "Standardisierung von der Heterogenität her zu denken" charakterisiert den Wandel am deutlichsten. Er ist nicht nur technologisch, sondern inhaltlich-konzeptuell. Die traditionellen Methoden der Standardisierung reichen nicht mehr aus, die auch im Web-Kontext angestrebte Interoperabilität und Datenkonsistenz aufrecht zu erhalten. Die Forschungs- und Entwicklungsabteilung des IZ Sozialwissenschaften hat in den letzten Jahren die theoretischen Grundlagen dieser Sichtweise auf die Standardisierungsprobleme und ihre praktische Umsetzung in verschiedenen Projekten zusammen mit unterschiedlichen Partnern bearbeitet. Der im Folgenden dargestellte Stand spiegelt das Ergebnis der Entwicklung der letzten sechs Jahre wider und fasst die realisierten Teilkomponenten solch einer Modellsicht zusammen. Das bisher Erreichte bietet schon heute erste Ansätze, die das konzeptuelle Problem unterschiedlichster Inhaltserschließungen im Kontext der heutigen digitalen Fachbibliotheken, Informationsverbünde und Fachportale zumindest partiell lösen.
    Footnote
    Der vollständige Text ist als pdf-Datei (491 KB) im Internet zu finden unter www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte als PDF-Datei zur Verfügung
  11. Mutschke, P.: Autorennetzwerke : Verfahren zur Netzwerkanalyse als Mehrwertdienste für Informationssysteme (2004) 0.01
    0.006486512 = product of:
      0.03891907 = sum of:
        0.03891907 = weight(_text_:der in 4050) [ClassicSimilarity], result of:
          0.03891907 = score(doc=4050,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4188313 = fieldWeight in 4050, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4050)
      0.16666667 = coord(1/6)
    
    Abstract
    Virtuelle Bibliotheken enthalten eine Fülle an Informationen, die in ihrer Vielfalt und Tiefe von Standardsuchmaschinen nicht erschöpfend erfasst wird. Der Arbeitsbericht informiert über Entwicklungen am IZ, die darauf abzielen, Wissen über das Interaktionsgeschehen in wissenschaftlichen Communities und den sozialen Status ihrer Akteure für das Retrieval auszunutzen. Grundlage hierfür sind soziale Netzwerke, die sich durch Kooperation der wissenschaftlichen Akteure konstituieren und in den Dokumenten der Datenbasis z.B. als Koautorbeziehungen repräsentiert sind (Autorennetzwerke). Die in dem Bericht beschriebenen Studien zur Small-World-Topologie von Autorennetzwerken zeigen, dass diese Netzwerke ein erhebliches Potential für Informationssysteme haben. Der Bericht diskutiert Szenarios, die beschreiben, wie Autorennetzwerke und hier insbesondere das Konzept der Akteurszentralität für die Informationssuche in Datenbanken sinnvoll genutzt werden können. Kernansatz dieser Retrievalmodelle ist die Suche nach Experten und das Ranking von Dokumenten auf der Basis der Zentralität von Autoren in Autorennetzwerken.
    Footnote
    Der vollständige Text steht unter http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/pdf/ab_32.pdf als PDF-Datei zur Verfügung
  12. Bredemeier, W.; Stock, M.; Stock, W.G.: ¬Die Branche elektronischer Geschäftsinformationen in Deutschland 2000/2001 (2001) 0.01
    0.006338424 = product of:
      0.038030542 = sum of:
        0.038030542 = weight(_text_:der in 621) [ClassicSimilarity], result of:
          0.038030542 = score(doc=621,freq=22.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.40926933 = fieldWeight in 621, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=621)
      0.16666667 = coord(1/6)
    
    Content
    Der deutsche Markt für Elektronische Informationsdienste im Jahre 2000 - Ergebnisse einer Umsatzerhebung - Von Willi Bredemeier: - Abgesicherte Methodologie unter Berücksichtigung der Spezifika des EIS-Marktes und der aktuellen Entwicklung - teilweise Vergleichbarkeit der Daten ab 1989 - Weitgehende quantitative Markttransparenz, da der Leser die Aggregationen der Markt- und Teilmarktdaten aus einzelwirtschaftlichen Daten voll nachvollziehen kann - 93 zum Teil ausführliche Tabellen vorwiegend zu einzelnen Informationsanbietern unter besonderer Berücksichtigung der Geschäftsjahre 2000 und 1999, unterteilt in die Bereiche Gesamtmarkt für Elektronische Informationsdienste, Datev, Realtime-Finanzinformationen, Nachrichtenagenturen, Kreditinformationen, Firmen- und Produktinformationen, weitere Wirtschaftsinformationen, Rechtsinformationen, Wissenschaftlich-technisch-medizinische Informationen - Intellectual Property, Konsumentendienste, Nachbarmärkte - Analyse aktueller Markttrends. Qualität professioneller Firmeninformationen im World Wide Web - Von Mechtild Stock und Wolfgang G. Stock: - Weiterführung der Qualitätsdiskussion und Entwicklung eines Systems von Qualitätskriterien für Informationsangebote, bezogen auf Firmeninformationen im Internet - "Qualitätspanel" für die Bereiche Bonitätsinformationen, Firmenkurzdossiers, Produktinformationen und Adressinformationen mit den Anbietern Bürgel, Creditreform, Dun & Bradstreet Deutschland, ABC online, ALLECO, Hoppenstedt Firmendatenbank, Who is Who in Multimedia, Kompass Deutschland, Sachon Industriedaten, Wer liefert was?, AZ Bertelsmann, Schober.com - Hochdifferenzierte Tests, die den Kunden Hilfen bei der Auswahl zwischen Angeboten und den Anbietern Hinweise auf Maßnahmen zu qualitativen Verbesserungen geben - Detaillierte Informationen über eingesetzte Systeme der Branchen- und Produktklassifikationen - Rankings der Firmeninformationsanbieter insgesamt sowie nach Datenbasen, Retrievalsystemen und Websites, Detailinformationen zu allen Qualitätsdimensionen
  13. Enzyklopädie im Wandel : Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot (2002) 0.01
    0.0061185267 = product of:
      0.03671116 = sum of:
        0.03671116 = weight(_text_:der in 1882) [ClassicSimilarity], result of:
          0.03671116 = score(doc=1882,freq=82.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.39507067 = fieldWeight in 1882, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
      0.16666667 = coord(1/6)
    
    Abstract
    "Enzyklopädie im Wandel: Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot?" lautete das Thema der Auftaktveranstaltung, die am 12. Dezember 2001 im Rahmen des Diskussionsforums "Kölner Dialog Informationswissenschaft" an der Fachhochschule Köln stattfand. Enzyklopädien sind stets dem Zeitgeist verpflichtet und im Wandel begriffen. Sie passen sich in ihrer Konzeption den zu erwartenden Bedürfnissen der Benutzer und den produktionstechnischen Möglichkeiten an. Gegenwärtig ist ein Nebeneinander von gedruckten und digitalen Enzyklopädien zu beobachten. Während gedruckte Enzyklopädien die Breite des Wissens zweidimensional erfahrbar machen und für den raschen Zugriff oft weiterhin bevorzugt werden, bieten Enzyklopädien in digitaler Form neben neuen Retrievaltechniken durch multimediale Synergien einen erheblich verbesserten Zugang zu den erläuterten Phänomenen. Die Autoren dieses Bandes setzen sich mit den Ansprüchen auseinander, die an die Konzeption von Enzyklopädien zu Beginn des 21. Jahrhunderts gestellt werden. Die einzelnen Beiträge vermitteln einen Einblick in Entstehung, Umfang und Funktionalitäten der auf der Buchmesse 2001 vorgestellten Neuausgaben der renommierten Nachschlagewerke "Brockhaus multimedial" und "Microsoft Encarta". Abschließend werden die Fragenkomplexe "Beitrag der Enzyklopädie zum Wissenserwerb heute" sowie "Entwicklungsperspektiven und Trägermedien von Enzyklopädien" thematisiert.
    Content
    Enthält die Beiträge: VOLPERS, H.: Idee und Begriff der Enzyklopädie im Wandel der Zeit; ANGER, E.: Brockhaus multimedial 2002 auf CD-ROM und DVD-ROM; HILTL, M.: Die Encarta Enzyklopädie Proefessional 2002 von Microsoft; HÄRKÖNEN, S.: Enzyklopädie im Wandel (Podiumsdiskussion)
    Footnote
    Rez. in: B.I.T. online 5(2002) H.3, S.281 (R. Fuhlrott) - Medienwissenschaft. 2003, H.1, S.72-74 (M. Hollender): "Der Sammelband gibt die Beiträge einer gleichnamigen Veranstaltung an der Fachhochschule Köln am 12. Dezember 2001 wieder. - Über enzyklopädisches Wissen verfügen zu wollen, sei in den letzten Jahren, so Helmut Volpers in seiner Einführung, durch den ,Verfall bildungsbürgerlicher Ideale" stark rückläufig gewesen; derzeit aber erlebe die Wertschätzung einer hohen Allgemeinbildung wieder einmal eine - popularisierte und medientaugliche - Renaissance: Die Verfügbarkeit über Faktenwissen eröffne die Chance, in der Flut der Fernsehrateshows zum Millionär zu avancieren. Volpers Beitrag über "Idee und Begriff der Enzyklopädie im Wandel der Zeit" widmet sich ausführlich vor allem Werken von Diderot und D'Alembert, dem Zedler und den frühen Brockhaus-Ausgaben. Sein Text liefert indes keine neuen Erkenntnisse und ist vor allem für Examenskandidaten hilfreich. Der Aufsatz von Volpers erfüllt aber wiederum als einziger der drei Beiträge die Ansprüche, die man an eine wissenschaftliche Veröffentlichung gemeinhin stellt. Die nachfolgenden Texte nämlich, die die Enzyklopädien von Brockhaus und Encarta in der CD-ROM-/DVD-Version präsentieren, stammen nicht von kommerziell unabhängig und wertneutral arbeitenden Verfassern, sondern vom Managing Editor New Media des Brockhaus-Verlages (Eberhard Anger) bzw. vom Chefredakteur der deutschsprachigen Encarta-Redaktion (Michael Hiltl). Demzufolge lesen sich die Beiträge wie eine Presseerklärung der Konzerne bzw. wie eine besonders kundenfreundlich formulierte Bedienungsanleitung für Fortgeschrittene. Von den Veranstaltern hätte man sich als Gegenpart auch eine kritische Stimme gewünscht; die Selbstanpreisungen der Firmenvertreter wie auch die Tendenz der Aussagen verstimmt den Leser, der eine abgewogene Darstellung erwartet hatte, zusehends. Dies beginnt bei der pauschalen Behauptung, der Brockhaus habe die NS-Ära aufgrund seiner Distanz zum Regime unbeschadet überstanden (die Darstellung von Senya Müller: Sprachwörterbücher im Nationalsozialismus: die ideologische Beeinflussung von Duden, Sprach-Brockhaus und anderen Nachschlagewerken während des "Dritten Reichs", Stuttgart 1994, beweist hinsichtlich des Sprach-Brockhauses das Gegenteil) und endet bei der Forderung, Internetinformationen müssten zukünftig mehr und mehr kostenpflichtig werden. Das merkantile Interesse von Anger und Hiltl ist freilich verständlich: Lexikonverlage stehen unter enormem Existenz- und Legitimationsdruck, um den Wettbewerb gegen sekundenschnell via Suchmaschinen kostenfrei erhältliche Informationen nicht zu verlieren. Und tatsächlich haben die internationalen Lexikonverlage in den letzten Jahren enorm aufgerüstet - die Unterschiede zwischen der großväterlich biederen Schrankwandausgabe des Brockhaus' und der Multimediaausgabe sind derart frappierend, dass selbst die unkritische Eigenwerbung der Verlagsrepräsentanten noch zu begeistern vermag (und umso mehr wünscht man sich eine relativierende Gegenstimme!). Die Hymnen der Lexikonverkäufer auf ihre Produkte sollen an dieser Stelle nicht wiederholt werden, wer sich indes mit dem Gedanken trägt, eine moderne Enzyklopädie zu erwerben, dem seien die Referate von Anger und Hiltl als Einstiegslektüre nur zu empfehlen. Wer hätte geahnt, dass die CD-ROMs des Brockhaus 2002 als Dreingabe auch den zweibändigen Brockhaus des Jahres 1906 einschließen! Zumindest soviel ist den Verlagsvertretern und den Kölner Tagungsveranstaltern gelungen: Sie wecken das Interesse an elektronischen lexikalischen Produkten. Kritische Stimmen muss man sich eben an anderer Stelle suchen.
    In regelmäßigen, sehr engen Abständen sind aus dem Netz Aktualisierungen der Enzyklopädien herunterladbar, die die veralteten Einträge automatisch überschreiben. Ungeklärt bleiben in diesem Zusammenhang leider zwei Fragen: Wie soll zukünftig aus derlei Werken wissenschaftlich seriös unter Angabe der Quelle zitiert werden? Aus konventionellen Lexika wird zwar selten zitiert, der Multimedia-Brockhaus umfasst hingegen ein Textvolumen, das mehr als viermal so groß ist wie das der Printausgabe, wodurch es als Quelle also eher infrage kommt. Unbeantwortet bleibt leider auch die wissenschaftshistorische Frage, ob die Entwicklungsstufen des sich täglich wandelnden und aktualisierenden Lexikons auf einem Brockhaus- bzw. Encarta-Archivserver dauerhaft gespeichert werden. Wissenschaftsgeschichte ist zwingend darauf angewiesen, nachweisen zu können, welcher Wissensstand zu welchem Zeitpunkt welchen Bevölkerungsgruppen als Gemeingut bekannt war; die Virtualität der Enzyklopädie als non-book-material macht derlei Studien womöglich bald unmöglich. Der Tagungsband wird unter http://www.fbi.fh-koeln.de/fachbereich/papers/ kabi/index.cfm auch im Netz vorgehalten. Sollten sämtliche Bände der Schriftenreihe Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft über eine derart billige Klebebindung verfügen wie das mir vorliegende Exemplar, gehört die Zukunft wieder ein Stückweit mehr der Netzpublikation: Der Selbstatomisierung des Heftes in drei Dutzend lose Blätter lässt sich so entgehen."
  14. Puzicha, J.: Informationen finden! : Intelligente Suchmaschinentechnologie & automatische Kategorisierung (2007) 0.01
    0.006067576 = product of:
      0.036405455 = sum of:
        0.036405455 = weight(_text_:der in 2817) [ClassicSimilarity], result of:
          0.036405455 = score(doc=2817,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3917808 = fieldWeight in 2817, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
      0.16666667 = coord(1/6)
    
    Abstract
    Wie in diesem Text erläutert wurde, ist die Effektivität von Such- und Klassifizierungssystemen durch folgendes bestimmt: 1) den Arbeitsauftrag, 2) die Genauigkeit des Systems, 3) den zu erreichenden Automatisierungsgrad, 4) die Einfachheit der Integration in bereits vorhandene Systeme. Diese Kriterien gehen davon aus, dass jedes System, unabhängig von der Technologie, in der Lage ist, Grundvoraussetzungen des Produkts in Bezug auf Funktionalität, Skalierbarkeit und Input-Methode zu erfüllen. Diese Produkteigenschaften sind in der Recommind Produktliteratur genauer erläutert. Von diesen Fähigkeiten ausgehend sollte die vorhergehende Diskussion jedoch einige klare Trends aufgezeigt haben. Es ist nicht überraschend, dass jüngere Entwicklungen im Maschine Learning und anderen Bereichen der Informatik einen theoretischen Ausgangspunkt für die Entwicklung von Suchmaschinen- und Klassifizierungstechnologie haben. Besonders jüngste Fortschritte bei den statistischen Methoden (PLSA) und anderen mathematischen Werkzeugen (SVMs) haben eine Ergebnisqualität auf Durchbruchsniveau erreicht. Dazu kommt noch die Flexibilität in der Anwendung durch Selbsttraining und Kategorienerkennen von PLSA-Systemen, wie auch eine neue Generation von vorher unerreichten Produktivitätsverbesserungen.
    Content
    Technical Whitepaper - Grundlagen der Informationsgewinnung
  15. Carey, K.; Stringer, R.: ¬The power of nine : a preliminary investigation into navigation strategies for the new library with special reference to disabled people (2000) 0.01
    0.005636124 = product of:
      0.033816744 = sum of:
        0.033816744 = product of:
          0.06763349 = sum of:
            0.06763349 = weight(_text_:22 in 234) [ClassicSimilarity], result of:
              0.06763349 = score(doc=234,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.46428138 = fieldWeight in 234, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=234)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Pages
    22 S
  16. Hegner, M.: Gestaltung barrierefreier Webseiten (2005) 0.01
    0.005405426 = product of:
      0.032432556 = sum of:
        0.032432556 = weight(_text_:der in 1421) [ClassicSimilarity], result of:
          0.032432556 = score(doc=1421,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 1421, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1421)
      0.16666667 = coord(1/6)
    
    Abstract
    Anhand von Beispielen wird die Gestaltung barrierefreier Webseiten verdeutlicht. Außerdem werden Hilfsmittel vorgestellt, mit denen sich Menschen mit Behinderung durch das Internet bewegen können. Unterschiedliche Ansätze zur Bestimmung der Barrierefreiheit von Webseiten werden aufgezeigt.
    Footnote
    Der vollständige Text steht unter www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/pdf/ab_35.pdf als PDF-Datei zur Verfügung
  17. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.01
    0.005405426 = product of:
      0.032432556 = sum of:
        0.032432556 = weight(_text_:der in 4497) [ClassicSimilarity], result of:
          0.032432556 = score(doc=4497,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 4497, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4497)
      0.16666667 = coord(1/6)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  18. Grazia Colonia; Dimmler, E.; Dresel, R.; Messner, C.; Krobath, A.; Petz, S.; Sypien, M.; Boxen, P. van; Harders, M.; Heuer, D.; Jordans, I.; Juchem, K.; Linnertz, M.; Mittelhuber, I.; Schwammel, S.; Schlögl, C.; Stock, W.G.: Informationswissenschaftliche Zeitschriften in szientometrischer Analyse (2002) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 1075) [ClassicSimilarity], result of:
          0.032106593 = score(doc=1075,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 1075, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1075)
      0.16666667 = coord(1/6)
    
    Abstract
    In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen).
  19. Nohr, H.: Wissen und Wissensprozesse visualisieren (2000) 0.01
    0.0051811794 = product of:
      0.031087076 = sum of:
        0.031087076 = weight(_text_:der in 2974) [ClassicSimilarity], result of:
          0.031087076 = score(doc=2974,freq=30.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.33454654 = fieldWeight in 2974, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2974)
      0.16666667 = coord(1/6)
    
    Abstract
    Wissen wird im modernen Wirtschaftsgeschehen zunehmend als eine wettbewerbsentscheidende Ressource angesehen. Es ist zu einem der wichtigsten Werte für Unternehmen geworden, um im globalen Wettbewerb bestehen zu können. Die Bemühungen der Unternehmen um Generierung und Akquisition von Wissen werden ständig intensiviert. Alle Anstrengungen, Wissen aus externen Quellen in die Unternehmung zu integrieren bzw. selbst neues Wissen zu erzeugen, bleiben allein jedoch wenig sinnvoll. "It's an ongoing quest within an organization (...) to help discover the location, ownership, value and use of knowledge artifacts, to lern the roles and expertise of people, to identify constraints to the flow of knowledge, and to highlight opportunities to leverage existing knowledge." (Grey 1999)
    Der wirkungsvolle und erfolgreiche Umgang mit Wissen wird erst durch aufeinander abgestimmte Management-Bausteine erreicht, wie sie heute im Rahmen von Konzeptionen eines Wissensmanagements formuliert werden. Bausteine eines solchen Wissensmanagements sind auf strategischer wie auf operativer Ebene angesiedelt. Auf der strategischen Ebene geht es vor allem um die Formulierung von Wissenszielen der Organisation, basierend auf den als kritisch erkannten Erfolgsfaktoren. Auf der operativen Ebene benennen verschiedene Konzeptionen eines Wissensmanagement heute unterschiedlich differenzierte Bausteine der Realisierung. Generalisiert lassen sich in nahezu allen Konzeptionen jedoch drei Gruppen von Bausteinen identifizieren, die je nach Ansatz weiter differenziert werden können: - Wissensgenerierung und Wissenserwerb - Wissensidentifikation und Wissenstransparenz - Wissensverteilung und Wissensnutzung Wissenstransparenz bzw. die Identifikation von Wissen werden in den gängigen Konzeptionen also als ein zentrales Element der operativen Aufgaben im Wissensmanagement erkannt (vgl. Probst/Romhardt 1996; Probst et al. 1998) Bullinger et al. 1998; Davenport/Prusak 1998). Im Gegensatz zum Datenmanagement und auch zum Informationsmanagement, spielen in diesen Konzepten vor allem auch die individuellen Wissensressourcen der Mitarbeiterinnen und Mitarbeiter eine entscheidende Rolle. Es ist eine Schlüsselerkenntnis modernen Managements, dass wesentliche Werte der Unternehmung 2in den Köpfen der Mitarbeiter" zu finden sind. Dabei ist Wissen als eine Ressource erkannt, die von Menschen generiert wird, an diese Menschen gebunden ist, auf Erfahrungen und Einstellungen beruht und sich nur in sehr eingeschränktem Masse externalisieren und übertragen lässt (tacit knowledge). In diesem Sinne geht es uns in der Hauptsache um Handlungswissen, um das "gewusst wie". Wie können mühsam erworbene Erfahrungen dokumentiert und transparent gemacht werden, wie kann dafür gesorgt werden, dass sie dem Unternehmen insgesamt und jederzeit zugute kommen können? Wie können erfolgreich durchgefiihrte Aktivitäten und Prozesse als Muster dienen, wenn analoge Aufgaben an anderen Orten und zu anderen Zeiten zu erfüllen sind? Wie gelangen wir vom individuellen Wissen einzelner Mitarbeiter zur Fähigkeit von Organisationen oder Teams, komplexe Probleme und Aufgaben zu lösen? Wenn generiertes, durch Erfahrung gewonnenes oder eingekauftes Wissen dem Unternehmen insgesamt, d.h. den Mitarbeitern die dieses Wissen jeweils benötigen, zugute kommen soll, muss für eine Transparenz über das unternehmensweit vorhandene Wissen gesorgt werden, ebenso über Wissen im Umfeld eines Unternehmens (bspw. bei Partner, Kunden, Behörden usw.). Dabei ist beim Wissensmanagement zunehmend die Tendenz einer räumlich dezentralen - oft sogar globalen - sowie zeitlich flüchtigen und virtuellen Organisation der Unternehmungen zu berücksichtigen (Faisst 1996). Unternehmen suchen nach best practices zur Organisation von Team- und Gruppenprozessen. Unternehmerische Prozesse und unternehmensrelevantes Wissen besitzen heute eine hohe Komplexität, die eine Erfassung, Speicherung und Verteilung des benötigten Wissens selbst ausgeschlossen erscheinen lässt bzw. nur unter Einsatz enormer Ressourcen möglich macht. Die angesprochenen Schwierigkeiten der Externalisierung des jeweils individuellen Erfahrungswissens von Experten stehen diesem Unterfangen ohnehin unüberbrücklich im Wege.
    Imprint
    Stuttgart : Fachhochschule / Hochschule der Medien
  20. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.01
    0.005128037 = product of:
      0.030768223 = sum of:
        0.030768223 = weight(_text_:der in 1837) [ClassicSimilarity], result of:
          0.030768223 = score(doc=1837,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3311152 = fieldWeight in 1837, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
      0.16666667 = coord(1/6)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Footnote
    Überarb. Version der Diplomarbeit im Studiengang Bibliothekswesen

Languages

  • d 30
  • e 6

Types