Search (68 results, page 1 of 4)

  • × language_ss:"d"
  • × type_ss:"x"
  • × year_i:[2010 TO 2020}
  1. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.15
    0.14622729 = product of:
      0.29245457 = sum of:
        0.032865267 = weight(_text_:und in 4408) [ClassicSimilarity], result of:
          0.032865267 = score(doc=4408,freq=12.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.35989314 = fieldWeight in 4408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.030474659 = weight(_text_:der in 4408) [ClassicSimilarity], result of:
          0.030474659 = score(doc=4408,freq=10.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.3311152 = fieldWeight in 4408, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.22911465 = sum of:
          0.1478228 = weight(_text_:mathematik in 4408) [ClassicSimilarity], result of:
            0.1478228 = score(doc=4408,freq=6.0), product of:
              0.2303155 = queryWeight, product of:
                5.5898643 = idf(docFreq=448, maxDocs=44218)
                0.041202344 = queryNorm
              0.64182734 = fieldWeight in 4408, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                5.5898643 = idf(docFreq=448, maxDocs=44218)
                0.046875 = fieldNorm(doc=4408)
          0.047797777 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
            0.047797777 = score(doc=4408,freq=4.0), product of:
              0.14493696 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.041202344 = queryNorm
              0.3297832 = fieldWeight in 4408, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=4408)
          0.033494093 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
            0.033494093 = score(doc=4408,freq=2.0), product of:
              0.1442836 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.041202344 = queryNorm
              0.23214069 = fieldWeight in 4408, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4408)
      0.5 = coord(3/6)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Field
    Mathematik
    Imprint
    Innsbruck : Universitäts- und Landesbibliothek Tirol
    Pages
    22 S
  2. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.10
    0.102463014 = product of:
      0.20492603 = sum of:
        0.1308805 = product of:
          0.39264148 = sum of:
            0.39264148 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.39264148 = score(doc=973,freq=2.0), product of:
                0.34931394 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.041202344 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.02683438 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.02683438 = score(doc=973,freq=2.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.047211144 = weight(_text_:der in 973) [ClassicSimilarity], result of:
          0.047211144 = score(doc=973,freq=6.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.5129615 = fieldWeight in 973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
    Footnote
    Inauguraldissertation zur Erlangung der Doktorwürde Vorgelegt der Philosophischen Fakultät I der Humboldt-Universität zu Berlin.
  3. Bertram, J.: Informationen verzweifelt gesucht : Enterprise Search in österreichischen Großunternehmen (2011) 0.06
    0.06380214 = product of:
      0.12760428 = sum of:
        0.037083156 = weight(_text_:und in 2657) [ClassicSimilarity], result of:
          0.037083156 = score(doc=2657,freq=22.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.40608138 = fieldWeight in 2657, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2657)
        0.04542894 = weight(_text_:der in 2657) [ClassicSimilarity], result of:
          0.04542894 = score(doc=2657,freq=32.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.4935974 = fieldWeight in 2657, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2657)
        0.045092188 = product of:
          0.06763828 = sum of:
            0.02816511 = weight(_text_:29 in 2657) [ClassicSimilarity], result of:
              0.02816511 = score(doc=2657,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.19432661 = fieldWeight in 2657, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
            0.03947317 = weight(_text_:22 in 2657) [ClassicSimilarity], result of:
              0.03947317 = score(doc=2657,freq=4.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.27358043 = fieldWeight in 2657, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
          0.6666667 = coord(2/3)
      0.5 = coord(3/6)
    
    Abstract
    Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informati-onssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zu-dem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich posi-tiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
    Content
    Dissertation am Institut für Bibliotheks- und Informationswissenschaft der Philosophische Fakultät I an der Humboldt-Universität zu Berlin. Vgl.: http://edoc.hu-berlin.de/dissertationen/bertram-jutta-2011-06-30/PDF/bertram.pdf.
    Date
    22. 1.2016 20:40:31
    Imprint
    Berlin : Humboldt-Universität, Institut für Bibliotheks- und Informationswissenschaft
  4. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.06
    0.055783637 = product of:
      0.111567274 = sum of:
        0.05453354 = product of:
          0.16360062 = sum of:
            0.16360062 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.16360062 = score(doc=4388,freq=2.0), product of:
                0.34931394 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.041202344 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.019366046 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.019366046 = score(doc=4388,freq=6.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.037667688 = weight(_text_:der in 4388) [ClassicSimilarity], result of:
          0.037667688 = score(doc=4388,freq=22.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.40926933 = fieldWeight in 4388, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(3/6)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Content
    Redigierte Version der Magisterarbeit, Karlsruhe, KIT, Inst. für Philosophie, 2012.
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  5. Sommer, M.: Automatische Generierung von DDC-Notationen für Hochschulveröffentlichungen (2012) 0.05
    0.046156634 = product of:
      0.09231327 = sum of:
        0.037949543 = weight(_text_:und in 587) [ClassicSimilarity], result of:
          0.037949543 = score(doc=587,freq=16.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.41556883 = fieldWeight in 587, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.04309768 = weight(_text_:der in 587) [ClassicSimilarity], result of:
          0.04309768 = score(doc=587,freq=20.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.46826762 = fieldWeight in 587, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=587)
        0.011266043 = product of:
          0.03379813 = sum of:
            0.03379813 = weight(_text_:29 in 587) [ClassicSimilarity], result of:
              0.03379813 = score(doc=587,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.23319192 = fieldWeight in 587, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=587)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
    Content
    Vgl. unter: http://opus.bsz-bw.de/fhhv/volltexte/2012/397/pdf/Bachelorarbeit_final_Korrektur01.pdf. Bachelorarbeit, Hochschule Hannover, Fakultät III - Medien, Information und Design, Abteilung Information und Kommunikation, Studiengang Informationsmanagement
    Date
    29. 1.2013 15:44:43
    Imprint
    Hannover : Hochschule Hannover, Fakultät III - Medien, Information und Design, Abteilung Information und Kommunikation
  6. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.05
    0.045615874 = product of:
      0.09123175 = sum of:
        0.04000233 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.04000233 = score(doc=401,freq=10.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.03634315 = weight(_text_:der in 401) [ClassicSimilarity], result of:
          0.03634315 = score(doc=401,freq=8.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.3948779 = fieldWeight in 401, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.014886264 = product of:
          0.04465879 = sum of:
            0.04465879 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.04465879 = score(doc=401,freq=2.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  7. Younansardaroud, H.: Inhaltliche Anpassung der RVK als Aufstellungsklassifikation : Projekt Bibliotheksneubau Kleine Fächer der FU Berlin, Islamwissenschaft (2010) 0.05
    0.04520335 = product of:
      0.0904067 = sum of:
        0.030001748 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.030001748 = score(doc=218,freq=10.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.049138907 = weight(_text_:der in 218) [ClassicSimilarity], result of:
          0.049138907 = score(doc=218,freq=26.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.5339072 = fieldWeight in 218, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.011266043 = product of:
          0.03379813 = sum of:
            0.03379813 = weight(_text_:29 in 218) [ClassicSimilarity], result of:
              0.03379813 = score(doc=218,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.23319192 = fieldWeight in 218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=218)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Im Zusammenhang mit der Bibliotheksstrukturreform der Freien Universität Berlin soll für die sog. "Kleinen Fächer" des Fachbereichs Geschichts- und Kulturwissenschaften eine integrierte Bibliothek mit einem gemeinsamen Standort entstehen. Die Bestände der Fachbibliotheken der "Kleinen Fächer" sollen retrokatalogisiert und für eine Freihandaufstellung schrittweise nach der Regensburger Verbundklassifikation (= RVK) einheitlich erschlossen werden. Im Rahmen dieser Masterarbeit soll untersucht werden, inwieweit die RVK den Bedürfnissen der Fachbibliothek der Islamwissenschaft entspricht. Dabei soll beantwortet werden, ob die RVK für die nach der Haussystematik aufgestellten islamwissenschaftlichen Bibliotheksbestände ausreicht bzw. aussagekräftig ist. Die Haussystematik ist veraltet und leidet vor allem unter einer inkonsistenten Anwendung. Die Mängel werden anhand von ausgewählten Beispielen aufgezeigt. Durch Anwendung der Crosskonkordanz-Methodik werden Verknüpfungen zwischen den beiden Systematiken herausgearbeitet und Erweiterungsmöglichkeiten der RVK für die islamwissenschaftlichen Bestände aufgezeigt.
    Date
    4. 6.2012 17:54:29
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  8. Engel, F.: Expertensuche in semantisch integrierten Datenbeständen (2015) 0.04
    0.040589552 = product of:
      0.081179105 = sum of:
        0.023665698 = weight(_text_:und in 2283) [ClassicSimilarity], result of:
          0.023665698 = score(doc=2283,freq=14.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.25915268 = fieldWeight in 2283, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
        0.038547736 = weight(_text_:der in 2283) [ClassicSimilarity], result of:
          0.038547736 = score(doc=2283,freq=36.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.4188313 = fieldWeight in 2283, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
        0.01896567 = product of:
          0.05689701 = sum of:
            0.05689701 = weight(_text_:mathematik in 2283) [ClassicSimilarity], result of:
              0.05689701 = score(doc=2283,freq=2.0), product of:
                0.2303155 = queryWeight, product of:
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.041202344 = queryNorm
                0.24703942 = fieldWeight in 2283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.5898643 = idf(docFreq=448, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2283)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Wissen ist das intellektuelle Kapital eines Unternehmens und der effektive Zugriff darauf entscheidend für die Anpassungsfähigkeit und Innovationskraft. Eine häufig angewandte Lösung für den erfolgreichen Zugriff auf diese Wissensressourcen ist die Umsetzung der Expertensuche in den Daten der verteilten Informationssysteme des Unternehmens. Aktuelle Expertensuchverfahren berücksichtigen zur Berechnung der Relevanz eines Kandidaten zumeist nur die Information aus Datenquellen (u. a. E-Mails oder Publikationen eines Kandidaten), über die eine Verbindung zwischen dem Thema der Frage und einem Kandidaten hergestellt werden kann. Die aus den Datenquellen gewonnene Information, fließt dann gewichtet in die Relevanzbewertung ein. Analysen aus dem Fachbereich Wissensmanagement zeigen jedoch, dass neben dem Themenbezug auch noch weitere Kriterien Einfluss auf die Auswahl eines Experten in einer Expertensuche haben können (u. a. der Bekanntheitsgrad zwischen dem Suchenden und Kandidat). Um eine optimale Gewichtung der unterschiedlichen Bestandteile und Quellen, aus denen sich die Berechnung der Relevanz speist, zu finden, werden in aktuellen Anwendungen zur Suche nach Dokumenten oder zur Suche im Web verschiedene Verfahren aus dem Umfeld des maschinellen Lernens eingesetzt. Jedoch existieren derzeit nur sehr wenige Arbeiten zur Beantwortung der Frage, wie gut sich diese Verfahren eignen um auch in der Expertensuche verschiedene Bestandteile der Relevanzbestimmung optimal zusammenzuführen. Informationssysteme eines Unternehmens können komplex sein und auf einer verteilten Datenhaltung basieren. Zunehmend finden Technologien aus dem Umfeld des Semantic Web Akzeptanz in Unternehmen, um eine einheitliche Zugriffsschnittstelle auf den verteilten Datenbestand zu gewährleisten. Der Zugriff auf eine derartige Zugriffschnittstelle erfolgt dabei über Abfragesprachen, welche lediglich eine alphanumerische Sortierung der Rückgabe erlauben, jedoch keinen Rückschluss auf die Relevanz der gefundenen Objekte zulassen. Für die Suche nach Experten in einem derartig aufbereiteten Datenbestand bedarf es zusätzlicher Berechnungsverfahren, die einen Rückschluss auf den Relevanzwert eines Kandidaten ermöglichen. In dieser Arbeit soll zum einen ein Beitrag geleistet werden, der die Anwendbarkeit lernender Verfahren zur effektiven Aggregation unterschiedlicher Kriterien in der Suche nach Experten zeigt. Zum anderen soll in dieser Arbeit nach Möglichkeiten geforscht werden, wie die Relevanz eines Kandidaten über Zugriffsschnittstellen berechnet werden kann, die auf Technologien aus dem Umfeld des Semantic Web basieren.
    Content
    Dissertation zur Erlangung des akademischen Grades Doktor-Ingenieur (Dr.-Ing.) der Fakultät für Mathematik und Informatik der FernUniversität in Hagen. Vgl.: http://deposit.fernuni-hagen.de/3042/.
  9. Waldhör, A.: Erstellung einer Konkordanz zwischen Basisklassifikation (BK) und Regensburger Verbundklassifikation (RVK) für den Fachbereich Recht (2012) 0.04
    0.039635487 = product of:
      0.079270974 = sum of:
        0.027387723 = weight(_text_:und in 596) [ClassicSimilarity], result of:
          0.027387723 = score(doc=596,freq=12.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.29991096 = fieldWeight in 596, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=596)
        0.042494882 = weight(_text_:der in 596) [ClassicSimilarity], result of:
          0.042494882 = score(doc=596,freq=28.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.46171808 = fieldWeight in 596, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=596)
        0.00938837 = product of:
          0.02816511 = sum of:
            0.02816511 = weight(_text_:29 in 596) [ClassicSimilarity], result of:
              0.02816511 = score(doc=596,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.19432661 = fieldWeight in 596, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=596)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Ziel der vorliegenden Arbeit war die Erstellung einer Konkordanz zwischen der Regensburger Verbundklassifikation (RVK) und der Basisklassifikation (BK) für den Fachbereich Recht. Die Erstellung von Konkordanzen ist im bibliothekarischen Bereichmehrfach von Interesse, da einerseits Notationen verschiedener Klassifikationssysteme zusammengeführt werden und somit eine höhere Datendichte erreicht werden kann. Zum anderen können Konkordanzen in der Suchmaschinentechnologie Primo als "Werkzeug" bei der facettierten Suche eingesetzt werden. Die Arbeit gliedert sich in zwei Teile. Der erste (theoretische) Teil beschäftigt sich mit Klassifikationen als Hilfsmittel für die Freihandaufstellung und als Teil der klassifikatorischen Sacherschließung. Im Anschluss daran werden drei große Klassifikationssysteme, die im Rahmen der Sacherschließung in Österreich eine wesentliche Rolle spielen (Verbundklassifikationen des OBV), dargestellt. Die Basisklassifikation und die Regensburger Verbundklassifikation werden kurz beschrieben, es wird untersucht wie juristische Medien in diesen Klassifikationen abgebildet werden. In diesem Zusammenhang wird auch der aktuelle Stand der RVK Erweiterung betreffend österreichisches Recht erörtert. Die Dewey - Dezimal - Klassifikation (DDC) wird auf ihre generelle Eignung als Klassifikation für juristische Medien genauer, anhand mehrerer praktischer Beispiele, untersucht. Insbesondere wird die "Konkordanzfähigkeit" der DDC im Hinblick auf die beiden anderen Systeme betreffend den Fachbereich Recht ermittelt. Ein kurzer Ausblick auf Unterschiede zwischen der angloamerikanischen Rechtsordnung und dem europäischen Civil Law ergänzt die Ausführungen zur DDC. Der zweite (praktische) Teil beinhaltet die Konkordanztabelle in Form einer Microsoft Excel Tabelle mit einem ausführlichen Kommentar. Diese Tabelle liegt auch in einer verkürzten Form vor, die für die praktische Umsetzung in der Verbunddatenbank vorgesehen ist.
    Date
    3. 2.2013 17:25:29
  10. Jäger-Dengler-Harles, I.: Informationsvisualisierung und Retrieval im Fokus der Infromationspraxis (2013) 0.04
    0.038706638 = product of:
      0.077413276 = sum of:
        0.032865267 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.032865267 = score(doc=1709,freq=12.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.033383317 = weight(_text_:der in 1709) [ClassicSimilarity], result of:
          0.033383317 = score(doc=1709,freq=12.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.36271852 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.011164698 = product of:
          0.033494093 = sum of:
            0.033494093 = weight(_text_:22 in 1709) [ClassicSimilarity], result of:
              0.033494093 = score(doc=1709,freq=2.0), product of:
                0.1442836 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.041202344 = queryNorm
                0.23214069 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1709)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Methoden und Techniken der Informationsvisualisierung werden seit ungefähr zwanzig Jahren im Bereich der Informationssuche eingesetzt. In dieser Literaturstudie werden ausgewählte Visualisierungsanwendungen der letzten Jahre vorgestellt. Sie betreffen zum einen den Retrievalprozess, das Boolesche Retrieval, die facettierte Suche, Dokumentbeziehungen, die Zufallssuche und Ergebnisanzeige, zum anderen spezielle Anwendungen wie die kartenbasierte und adaptive Visualisierung, Zitationsnetzwerke und Wissensordnungen. Die Einsatzszenarien für Applikationen der Informationsvisualisierung sind vielfältig. Sie reichen von mobilen kleinformatigen Anwendungen bis zu großformatigen Darstellungen auf hochauflösenden Bildschirmen, von integrativen Arbeitsplätzen für den einzelnen Nutzer bis zur Nutzung interaktiver Oberflächen für das kollaborative Retrieval. Das Konzept der Blended Library wird vorgestellt. Die Übertragbarkeit von Visualisierungsanwendungen auf Bibliothekskataloge wird im Hinblick auf die Nutzung des Kataloginputs und des Angebots an Sucheinstiegen geprüft. Perspektivische Überlegungen zu zukünftigen Entwicklungsschritten von Bibliothekskatalogen sowie zum Einfluss von Visualisierungsanwendungen auf die Informationspraxis werden angestellt.
    Date
    4. 2.2015 9:22:39
  11. Becker, T.: Potentielle Funktionen von Wissensmanagement in Öffentlichen Bibliotheken : eine szenariobasierte Delphi-Studie mit Wissensexperten aus britischen und deutschen Großstadtbibliotheken (2014) 0.04
    0.03786248 = product of:
      0.07572496 = sum of:
        0.029666524 = weight(_text_:und in 2093) [ClassicSimilarity], result of:
          0.029666524 = score(doc=2093,freq=22.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.3248651 = fieldWeight in 2093, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2093)
        0.038547736 = weight(_text_:der in 2093) [ClassicSimilarity], result of:
          0.038547736 = score(doc=2093,freq=36.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.4188313 = fieldWeight in 2093, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2093)
        0.0075106956 = product of:
          0.022532087 = sum of:
            0.022532087 = weight(_text_:29 in 2093) [ClassicSimilarity], result of:
              0.022532087 = score(doc=2093,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.15546128 = fieldWeight in 2093, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2093)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Nach der Herleitung und Skizzierung der 'szenariobasierten Delphi-Studie' als Untersuchungsmethode und Präsentation des Forschungsdesigns werden Konzepte von Wissensmanagement über einen Literatur- Review in den Kontext des aktuellen Forschungsstandes gestellt. Diese Bestandsaufnahme der Gegenwart ist in erster Linie abgeleitet aus Fachveröffentlichungen zum Wissensmanagement im Allgemeinen und denen der BID-Community im Besonderen. Welche Rolle spielt Wissensmanagement gegenwärtig in der bibliothekarischen Praxis Öffentlicher Bibliotheken der im Untersuchungsfokus stehenden Nationen? Was verbindet die Arbeit mit Wissensmanagement in den Öffentlichen Bibliotheken der beiden Nationen und (wo) sind Unterschiede zu finden? Diese Verifizierung des Status quo ist nur ein Teil der vorliegenden Arbeit, Schwerpunkt bildet der Blick in die kommende Zeit. Hat Wissensmanagement eine Zukunft in der Öffentlichen Bibliothek? Wenn ja, wie sieht diese aus und in welcher Intention wird Wissensmanagement eingesetzt? Stellt es mehr als nur ein Instrument der innerbetrieblichen Organisationsoptimierung dar? Wird Wissensmanagement im Sinne des Erwerbs von Demokratiekompetenz an den Endkunden quasi als Werkzeugkoffer weitergegeben? Hilft es den Öffentlichen Bibliotheken im Sinne einer systemischen kommunalen Legitimierung? Mit den Methoden Szenariotechnik und Delphi-Studie werden auf Basis der Aussagen ausgewählter Wissensexperten aus den Großstadtbibliotheken beider Länder Trendprojektionen erstellt, die ihrerseits in einem die Studie abschließenden konsensualen Szenario münden. Auf dem Weg dorthin werden im Laufe von iterativen Befragungen zudem für die Praxis adaptierbare Handlungsoptionen für die Öffentliche Bibliothek der Zukunft generiert und anhand ausgewählter Expertenaussagen im Sinne von Best-Practise-Beispielen und -Ideen in die Arbeit integriert. Wissensmanagement, so das Ergebnis der Untersuchung, der professionelle Umgang mit der Ressource Wissen in den Dimensionen Individuelles, Internes, Externes und Systemisches Wissensmanagement, findet bereits gegenwärtig in Öffentliche Bibliotheken statt; Wissensmanagement wird, so konstatieren die Wissensexperten weiter, zudem sowohl in Großbritannien als auch in Deutschland zukünftig als andauernde Querschnittsaufgabe jeder Öffentlichen Bibliothek angesehen und mit unterschiedlicher Intensität, unter heterogenen Rahmenbedingungen, aber immer mit vielversprechendem Erfolg betrieben werden.
    Content
    Vgl. auch: http://edoc.hu-berlin.de/dissertationen/becker-thomas-2014-04-29/PDF/becker.pdf.
    Footnote
    Dissertation zur Erlangung des akademischen Grades Doctor philosophiae (Dr. phil.) eingereicht an der Philosophischen Fakultät I der Humboldt-Universität zu Berlin.
  12. Brumm, A.: Modellierung eines Informationssystems zum Bühnentanz als semantisches Wiki (2010) 0.04
    0.035995163 = product of:
      0.071990326 = sum of:
        0.031306777 = weight(_text_:und in 4025) [ClassicSimilarity], result of:
          0.031306777 = score(doc=4025,freq=8.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.34282678 = fieldWeight in 4025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
        0.027539833 = weight(_text_:der in 4025) [ClassicSimilarity], result of:
          0.027539833 = score(doc=4025,freq=6.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.29922754 = fieldWeight in 4025, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4025)
        0.013143717 = product of:
          0.03943115 = sum of:
            0.03943115 = weight(_text_:29 in 4025) [ClassicSimilarity], result of:
              0.03943115 = score(doc=4025,freq=2.0), product of:
                0.14493696 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.041202344 = queryNorm
                0.27205724 = fieldWeight in 4025, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4025)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Es wurde ein Informationssystem zum Bühnentanz modelliert, das der Informierung über konkrete Individuen des Gegenstandsbereichs (insbesondere choreographische Werke und Personen) dienen soll. Dabei wurde auch insbesondere das Ziel verfolgt, Beziehungen zwischen Werken, Personen, Organisationen etc. aufzuzeigen und abfragbar zu machen. Konzipiert wurde das Informationssystem als semantisches Wiki. Neben der Entwicklung eines Inventars an Kategorien und Attributen wurde anhand konkreter Beispiele gezeigt, wie Informationen in einem semantischen Wiki sowohl maschinenverständlich erfasst, als auch dem Benutzer anschaulich präsentiert werden können. Denkbar wäre ein Einsatzbereich des im Grunde eigenständigen Informationssystems auch im Bereich der Erschließung von Tanzsammlungen.
    Date
    18.10.2010 21:05:29
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  13. Fischer, M.: Sacherschliessung - quo vadis? : Die Neuausrichtung der Sacherschliessung im deutschsprachigen Raum (2015) 0.03
    0.028862733 = product of:
      0.0865882 = sum of:
        0.037083156 = weight(_text_:und in 2029) [ClassicSimilarity], result of:
          0.037083156 = score(doc=2029,freq=22.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.40608138 = fieldWeight in 2029, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.04950504 = weight(_text_:der in 2029) [ClassicSimilarity], result of:
          0.04950504 = score(doc=2029,freq=38.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.5378853 = fieldWeight in 2029, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
      0.33333334 = coord(2/6)
    
    Abstract
    Informationen werden heute von den meisten Menschen vor allem im World Wide Web gesucht. Bibliothekskataloge und damit die in den wissenschaftlichen Bibliotheken gepflegte intellektuelle Sacherschliessung konkurrieren dabei mit einfach und intuitiv zu benutzenden Suchmaschinen. Die Anforderungen an die thematische Recherche hat sich in den letzten Jahren durch die rasante Entwicklung der Informationstechnologie grundlegend verändert. Darüber hinaus sehen sich die Bibliotheken heute mit dem Problem konfrontiert, dass die zunehmende Flut an elektronischen Publikationen bei gleichzeitig abnehmenden Ressourcen intellektuell nicht mehr bewältigt werden kann. Vor diesem Hintergrund hat die Expertengruppe Sacherschliessung - eine Arbeitsgruppe innerhalb der Arbeitsstelle für Standardisierung der Deutschen Nationalbibliothek (DNB), in welcher Vertreterinnen und Vertreter der deutschsprachigen Bibliotheksverbünde repräsentiert sind - 2013 damit begonnen, sich mit der Neuausrichtung der verbalen Sacherschliessung zu befassen. Bei der aktuellen Überarbeitung der Regeln für den Schlagwortkatalog (RSWK) sollen die verbale und klassifikatorische Sacherschliessung, ebenso wie die intellektuelle und automatische Indexierung in einem Zusammenhang betrachtet werden. Neben der neuen Suchmaschinentechnologie und den automatischen Indexierungsmethoden gewinnt dabei vor allem die Vernetzung der Bibliothekskataloge mit anderen Ressourcen im World Wide Web immer mehr an Bedeutung. Ausgehend von einer Analyse der grundlegenden Prinzipien der international verbreiteten Normen und Standards (FRBR, FRSAD und RDA) beschäftige ich mich in meiner Masterarbeit mit der in der Expertengruppe Sacherschliessung geführten Debatte über die aktuelle Überarbeitung der RSWK. Dabei stellt sich insbesondere die Frage, welche Auswirkungen die rasante Entwicklung der Informationstechnologie auf die zukünftige Neuausrichtung der intellektuellen Sacherschliessung haben wird? Welche Rolle spielen in Zukunft die Suchmaschinen und Discovery Systeme, die automatischen Indexierungsverfahren und das Semantic Web bzw. Linked Open Data bei der inhaltlichen Erschliessung von bibliografischen Ressourcen?
    Footnote
    Masterarbeit im MAS-Studiengang in Bibliotheks- und Informationswissenschaft, Universität Zürich / Zentralbibliothek Zürich.
  14. Groß, T.: Automatische Indexierung von wirtschaftswissenschaftlichen Dokumenten : Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (2010) 0.03
    0.02858086 = product of:
      0.08574258 = sum of:
        0.04031364 = weight(_text_:und in 2078) [ClassicSimilarity], result of:
          0.04031364 = score(doc=2078,freq=26.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.441457 = fieldWeight in 2078, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
        0.04542894 = weight(_text_:der in 2078) [ClassicSimilarity], result of:
          0.04542894 = score(doc=2078,freq=32.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.4935974 = fieldWeight in 2078, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Bewertung der Indexierungsqualität bzw. -güte ist ein grundlegendes Problem von manuellen und automatischen Indexierungsverfahren. Letztere werden aber gerade im digitalen Zeitalter als einzige Möglichkeit angesehen, den zunehmenden Schwierigkeiten bibliothekarischer Informationsstrukturierung gerecht zu werden. Diese Arbeit befasst sich mit der Funktionsweise, Implementierung und Evaluierung der Sacherschließungssoftware MindServer Categorizer, der Firma Recommind, an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW). Grundlage der maschinellen Sacherschließung und anschließenden quantitativen und qualitativen Auswertung bilden rund 39.000 wirtschaftswissenschaftliche Dokumente aus den Datenbanken Econis und EconStor. Unter Zuhilfenahme des rund 6.000 Deskriptoren umfassenden Standard-Thesaurus Wirtschaft (STW) wird der ursprünglich rein statistische Indexierungsansatz des MindServer Categorizer zu einem begriffsorientierten Verfahren weiterentwickelt und zur Inhaltserschließung digitaler Informationsressourcen eingesetzt. Der zentrale Fokus dieser Arbeit liegt vor allem auf der Evaluierung der maschinell beschlagworteten Titel, in Anlehnung und entsprechender Anpassung der von Stock (2008) und Lancaster (2003) hierzu vorgeschlagenen Kriterien: Indexierungskonsistenz, -tiefe, -breite, -spezifität, -effektivität. Zusätzlich wird die Belegungsbilanz des STW evaluiert und es erfolgt ferner eine stichprobenartige, qualitative Bewertung der Ergebnisse seitens der zuständigen Fachreferenten und -referentinnen.
    Content
    Vgl. unter: http://edoc.hu-berlin.de/series/berliner-handreichungen/2010-284/PDF/284.pdf. Auch als: Automatische Indexierung von Dokumenten in einer wissenschaftlichen Bibliothek: Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften. Diplomica Verlag, 2011.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  15. Mattmann, B.: ¬Die Möglichkeiten von RDA bei der Erschliessung historischer Sondermaterialien : Analyse der Beschreibungs- und Erschließungsmöglicjkeiten von Resource Description and Access für die historischen Sondermaterialien Brief und Fotografie (2014) 0.03
    0.028047806 = product of:
      0.084143415 = sum of:
        0.05366876 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.05366876 = score(doc=1651,freq=32.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.030474659 = weight(_text_:der in 1651) [ClassicSimilarity], result of:
          0.030474659 = score(doc=1651,freq=10.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.3311152 = fieldWeight in 1651, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
      0.33333334 = coord(2/6)
    
    Abstract
    Der neue Erschliessungsstandard RDA beschäftigt aktuell unzählige Arbeitsgruppen und Einzelpersonen aus verschiedenen Ländern. Dabei geht es vor allem um die Anpassung einzelner Regeln und Konzepte an lokale Gegebenheiten und spezifische Medientypen. Das erklärte Ziel, den Standard auch für nicht-bibliothekarische Communities attraktiv zu machen, stand jedoch bislang im Hintergrund. Es ist unklar, ob und wie sich RDA beispielsweise in Archiven und Sondersammlungen anwenden lässt. Diese Bachelorarbeit widmet sich dieser Unsicherheit und untersucht die Möglichkeiten der Katalogisierung von ausgewählten archivalischen Ressourcen. Mittels einer Literaturanalyse werden die von Nutzern und Erschliessenden als essenziell erachteten Merkmale von Briefen und Fotografien erhoben und auf die Beschreibungsmöglichkeiten mit RDA hin untersucht. Dabei zeigt sich, dass der Standard grundsätzlich aufgeschlossen gegenüber archivalischen und historischen Ressourcen ist und sich lediglich vereinzelte Anpassungen von Begriffslisten und An- wendungsregeln empfehlen. Entscheidende Fragestellungen, wie die Abbildung von Kontextualität und Hierarchien, müssen jedoch noch geklärt werden, um die Attraktivität des Standards für nicht-bibliothekarische Communities weiter zu verbessern.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft
  16. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.03
    0.028022196 = product of:
      0.084066585 = sum of:
        0.044723965 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.044723965 = score(doc=1081,freq=32.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.039342616 = weight(_text_:der in 1081) [ClassicSimilarity], result of:
          0.039342616 = score(doc=1081,freq=24.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.42746788 = fieldWeight in 1081, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
  17. Malkawi, K.: ¬Die Einführung der RVK als Aufstellungsklassifikation : ein Projekt an der Bibliothek Orientwissenschaften der Universitätsbibliothek Leipzig (2010) 0.03
    0.027397377 = product of:
      0.08219213 = sum of:
        0.027112463 = weight(_text_:und in 4034) [ClassicSimilarity], result of:
          0.027112463 = score(doc=4034,freq=6.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.2968967 = fieldWeight in 4034, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4034)
        0.055079665 = weight(_text_:der in 4034) [ClassicSimilarity], result of:
          0.055079665 = score(doc=4034,freq=24.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.5984551 = fieldWeight in 4034, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4034)
      0.33333334 = coord(2/6)
    
    Abstract
    Thema der vorliegenden Arbeit ist die Einführung der Regensburger Verbundklassifikation als Aufstellungsklassifikation in der Bibliothek Orientwissenschaften der Universitätsbibliothek Leipzig. Aufgrund der komplexen Ausgangslage konzipiert die Verfasserin die Einführung der RVK als Projekt unter Anwendung des Verfahrens des Projektmanagements. Projektmanagement wird dabei aus rein betriebswirtschaftlicher Sicht, aber auch als Kern organisationaler Veränderungsprozesse innerhalb der Organisationsentwicklung betrachtet. Organisationsentwicklung schließt ein, was die Diskussion um Produktivität und Effizienz von Bibliotheken oft nicht ausreichend berücksichtigt: den humanen Faktor. Neben den harten Fakten berücksichtigt der vorgelegte Projektplan somit ausdrücklich situative und psychosoziale Prozesse als maßgebliche weiche Dimension des Projektmanagement.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  18. Zuckerstätter, B.: Klassifikation und Beschlagwortung : zur Verwendung von Schlagwörtern in Aufstellungsklassifikationen (2012) 0.03
    0.02692878 = product of:
      0.08078634 = sum of:
        0.0353574 = weight(_text_:und in 594) [ClassicSimilarity], result of:
          0.0353574 = score(doc=594,freq=20.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.3871834 = fieldWeight in 594, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=594)
        0.04542894 = weight(_text_:der in 594) [ClassicSimilarity], result of:
          0.04542894 = score(doc=594,freq=32.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.4935974 = fieldWeight in 594, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=594)
      0.33333334 = coord(2/6)
    
    Abstract
    Die vorliegende Arbeit gilt der Frage, ob sich die in zahlreichen Katalogisaten des Österreichischen Verbundkataloges enthaltenen Beschlagwortungsdaten eventuell für eine zur Buchaufstellung geeignete Klassifikation verwerten ließen. Um diese Frage beantworten zu können, war zunächst eine Einarbeitung in die Grundlagen der Klassifikationstheorie nötig, die im ersten Teil der Arbeit dokumentiert wird. Die Schwerpunkte bilden dabei Überlegungen zum Status von Klassen, zu Problemen systematischer Anordnung und zu Varianten der symbolischen Repräsentation dieser Ordnung durch Notationen. Im zweiten Teil wird versucht, die Unterschiede und Ähnlichkeiten zwischen Beschlagwortung und Klassifikation zu verdeutlichen. Dazu werden Teilbereiche von Facettenklassifikationen und Klassifikationsschlüsseln behandelt sowie einige Eigenschaften der Schlagwortnormdatei und der Methode Eppelsheimer erläutert. Im letzten Teil der Arbeit wird auf Basis der zuvor gewonnenen Erkenntnisse ein rudimentärer praktischer Versuch der Verwendung von Schlagwörtern für die Buchaufstellung durchgeführt. Dazu wird die Notation von 100 Titeln aus dem Bestand der Bibliothek der Fachhochschule Salzburg, die derzeit der Gruppe "Soziologie" zugeordnet sind, in verschiedenen Varianten mit Schlagwortdaten ergänzt, um eine Neugruppierung zu erreichen. Die einzelnen Varianten werden kurz vorgestellt und hinsichtlich der auffälligsten Vor- und Nachteile bewertet. Als Ergebnis der theoretischen Ausführungen und der praktischen Versuche lässt sich festhalten, dass die Verwendung von Schlagwortdaten möglich und auch nützlich wäre. Sie kann vermutlich aber nicht durch rein mechanische Eingliederung der Schlagwörter in die Notationen erfolgen, macht also einen intellektuellen Zusatzaufwand nötig.
  19. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.03
    0.026447928 = product of:
      0.07934378 = sum of:
        0.0353574 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.0353574 = score(doc=4321,freq=20.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.043986384 = weight(_text_:der in 4321) [ClassicSimilarity], result of:
          0.043986384 = score(doc=4321,freq=30.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.47792363 = fieldWeight in 4321, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
      0.33333334 = coord(2/6)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
    Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
  20. Treue, L.: ¬Das Konzept Informationskompetenz : ein Beitrag zur theoretischen und praxisbezogenen Begriffsklärung (2011) 0.03
    0.026024904 = product of:
      0.07807471 = sum of:
        0.038732093 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.038732093 = score(doc=214,freq=24.0), product of:
            0.09131952 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.041202344 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
        0.039342616 = weight(_text_:der in 214) [ClassicSimilarity], result of:
          0.039342616 = score(doc=214,freq=24.0), product of:
            0.092036426 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.041202344 = queryNorm
            0.42746788 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Konzept Informationskompetenz entwickelt sich im deutschsprachigen Raum seit den 1990er-Jahren zu einem Schlüsselbegriff des Bildungs- und Bibliothekswesens. Es handelt sich um einen Transfer des Konzepts "information literacy", welches im angloamerikanischen Raum bereits seit den 1980er-Jahren etabliert ist und allgemein für eine Fähigkeit im Umgang mit Information benutzt wird. Der Informationsbegriff als Bezugspunkt der Fähigkeit im Umgang mit Information wird in dieser Arbeit etymologisch, nachrichtentechnisch, zeichentheoretisch und als Grundbegriff der Informationswissenschaft betrachtet. Der medienhistorische Zusammenhang wird in einer Untersuchung zum Begriffsaufkommen nachgewiesen und analysiert. Die Entwicklung des Konzepts wird von seinem ersten Aufkommen bis zu neueren zielgruppenfokussierten Anwendungen wie der Informationskompetenz in Unternehmen (IKU) nachgezeichnet. Als Beispiel aus der Praxis wird das Berliner Projekt "Informationskompetenz als Schlüsselqualifikation für lebenslanges Lernen von Hochschulabsolventen in kleinen und mittleren Unternehmen" (2005-2008) betrachtet. Die Untersuchung der Verwendung des Begriffes sowie seiner praktischen Wirkungen sollen im Sinne der Pragmatischen Maxime einen Beitrag zur Begriffsklärung leisten. Trotz der starken Verbreitung dieses Konzepts zeichnet es sich durch terminologische Unklarheit und einen permanenten Diskurs zu dessen Inhalten und Bedeutungen dieses Begriffs aus. Die Arbeit dokumentiert die Lücke zwischen der theoretischen informationswissenschaftlichen Konzeption und der Anwendung im Bildungs- und Bibliotheksbereich und formuliert in diesem Kontext Desiderate für die Informationswissenschaft.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin

Types