Search (717 results, page 1 of 36)

  • × language_ss:"d"
  • × year_i:[2000 TO 2010}
  1. Hastik, C.; Schuster, A.; Knauerhase, A.: Wissenschaftliche Suchmaschinen : Usability Evaluation und Betrachtung des Suchverhaltens potentieller Nutzer (2009) 0.09
    0.08636883 = product of:
      0.17273766 = sum of:
        0.17273766 = sum of:
          0.13066667 = weight(_text_:d.h in 2768) [ClassicSimilarity], result of:
            0.13066667 = score(doc=2768,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.4772975 = fieldWeight in 2768, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2768)
          0.04207098 = weight(_text_:22 in 2768) [ClassicSimilarity], result of:
            0.04207098 = score(doc=2768,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.2708308 = fieldWeight in 2768, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2768)
      0.5 = coord(1/2)
    
    Abstract
    Wissenschaftliche Suchmaschinen haben es nicht leicht in einer "Amazoogle" gestalteten Welt. Dabei ist nicht nur die Einfachheit der Benutzerschnittstelle d.h. die Umsetzung von Usability-Anforderungen entscheidend für den Erfolg, sondern ebenso die Qualität der Suchergebnisse. Im Rahmen des Masterprojektes "Wissenschaftliche Suchmaschinen" an der Hochschule Darmstadt werden benutzerspezifische Bedürfnisse, Anforderungen und Aspekte der Wahrnehmung in Relation zum individuellen Informationssuchverhalten aufgerollt und methodisch evaluiert. Es wird der Fragestellung nachgegangen, was die Informationssuche auszeichnet und welche Rolle die Informationskompetenz der Nutzer in diesem Rahmen spielt. Anschließend werden die Ergebnisse detailliert skizziert, analysiert und daraus Rückschlüsse auf die zielgruppenspezifischen Anforderungen und Bedürfnisse hinsichtlich der Gestaltung von wissenschaftlichen Suchmaschinen gezogen.
    Date
    23. 3.2009 14:49:22
  2. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.08
    0.08383905 = sum of:
      0.068813704 = product of:
        0.27525482 = sum of:
          0.27525482 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
            0.27525482 = score(doc=193,freq=2.0), product of:
              0.47013733 = queryWeight, product of:
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.044359796 = queryNorm
              0.5854775 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.25 = coord(1/4)
      0.01502535 = product of:
        0.0300507 = sum of:
          0.0300507 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
            0.0300507 = score(doc=193,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.5 = coord(1/2)
    
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  3. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.06
    0.061692018 = product of:
      0.123384036 = sum of:
        0.123384036 = sum of:
          0.093333334 = weight(_text_:d.h in 5773) [ClassicSimilarity], result of:
            0.093333334 = score(doc=5773,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.3409268 = fieldWeight in 5773, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5773)
          0.0300507 = weight(_text_:22 in 5773) [ClassicSimilarity], result of:
            0.0300507 = score(doc=5773,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 5773, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5773)
      0.5 = coord(1/2)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
    Source
    Password. 2000, H.5, S.22-31
  4. Ball, R.: Wissenschaftsindikatoren im Zeitalter digitaler Wissenschaft (2007) 0.06
    0.061692018 = product of:
      0.123384036 = sum of:
        0.123384036 = sum of:
          0.093333334 = weight(_text_:d.h in 875) [ClassicSimilarity], result of:
            0.093333334 = score(doc=875,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.3409268 = fieldWeight in 875, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0390625 = fieldNorm(doc=875)
          0.0300507 = weight(_text_:22 in 875) [ClassicSimilarity], result of:
            0.0300507 = score(doc=875,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 875, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=875)
      0.5 = coord(1/2)
    
    Abstract
    Die Bereitstellung und Nutzung digitaler Bibliotheken entwickelt sich allmählich zum Standard der Literatur und Informationsversorgung in Wissenschaft und Forschung. Ganzen Disziplinen genügt oftmals die verfügbare digitale Information, Printmedien werden besonders im STM-Segment zu einem Nischenprodukt. Digitale Texte können beliebig eingebaut, kopiert und nachgenutzt werden, die Verlinkung zwischen Metadaten und Volltexten bringt weitere Nutzungsvorteile. Dabei sind die Angebote von Digital Libraries Bestandteil eines ganzheitlichen digitalen Ansatzes, wonach die elektronische Informations- und Literaturversorgung integraler Bestandteil von E-Science (Enhanced Science) oder Cyberinfrastructure darstellt. Hierbei verschmelzen dann Produktion, Diskussion, Distribution und Rezeption der wissenschaftlichen Inhalte auf einer einzigen digitalen Plattform. Damit sind dann nicht nur die Literatur- und Informationsversorgung (Digital Libraries), sondern auch die Wissenschaft selbst digital geworden. Diese dramatische Veränderung in der Wissenschaftskommunikation hat direkte Auswirkungen auf die Messung der Wissenschaftskommunikation, also auf die Evaluation von wissenschaftlichem Output. Bisherige Systeme der Wissenschaftsvermessung basieren hauptsächlich auf bibliometrischen Analysen, d.h. der Quantifizierung des Outputs und dessen Rezeption (Zitierhäufigkeit). Basis dafür sind insbesondere im STM-Bereich die international anerkannten Datenbanken des ISI (Thomson Scientific) insbesondere der Science Citation Index, SCI) oder vielleicht zukünftig das Konkurrenzprodukt SCOPUS des Wissenschaftskonzerns Reed Elsevier. Die Digitalisierung der Wissenschaft in ihrem kompletten Lebenszyklus, die zunehmende Nutzung und Akzeptanz von Dokumentenrepositorien, Institutsservern und anderen elektronischen Publikationsformen im Rahmen von E-Science erfordern und ermöglichen zugleich den Nachweis von Output und Rezeption durch neue bibliometrische Formen, etwa der Webometrie (Webmetrics). Im vorliegenden Paper haben wir hierzu Analysen durchgeführt und stellen eine Abschätzung vor, wie sich der Anteil von webometrisch erfassbarer und zugänglicher wissenschaftlicher Literatur im Vergleich zu Literatur, die mit den Standardsystemen nachgewiesen werden kann im Laufe der letzten Jahre verändert hat. Dabei haben wir unterschiedliche Disziplinen und Länder berücksichtigt. Zudem wird ein Vergleich der webometrischen Nachweisqualität so unterschiedlicher Systeme wie SCI, SCOPUS und Google Scholar vorgestellt.
    Date
    23.12.2007 19:22:21
  5. Klauß, H.: Pilotmigration UB des BIZ der Europa-Universität Viadrina - Frankfurt (Oder) in den BVB (2009) 0.06
    0.061692018 = product of:
      0.123384036 = sum of:
        0.123384036 = sum of:
          0.093333334 = weight(_text_:d.h in 3282) [ClassicSimilarity], result of:
            0.093333334 = score(doc=3282,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.3409268 = fieldWeight in 3282, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3282)
          0.0300507 = weight(_text_:22 in 3282) [ClassicSimilarity], result of:
            0.0300507 = score(doc=3282,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 3282, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3282)
      0.5 = coord(1/2)
    
    Abstract
    Ende 2007 wurde die "Vereinbarung zur Strategischen Allianz zwischen dem Bibliotheksverbund Bayern (BVB) und dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV)" beschlossen). Infolgedessen werden die Kataloge von vielen Bibliotheken aus Berlin und Brandenburg zusammengeführt. Die beteiligten Bibliotheken sind teils SISIS-, teils Aleph-Bibliotheken. Die UB des Bibliotheks- und Informationszentrum (BIZ) Frankfurt (Oder) hat für die SISIS-Bibliotheken die Pilotierung übernommen. Es soll im Folgenden nicht das Verfahren der Beschlussfassung in dieser Sache thematisiert werden, sondern es sollen einige Anmerkungen gemacht werden zur Berlin-Brandenburgischen Bibliotheksgeschichte bzgl. Verbundkatalogisierung und lokal autonomer Katalogisierung im Hinblick auf die Allianz sowie gewisse Rahmenbedingungen und einiger Details der Migration bei uns. Im Jahr 1994 trat das Land Brandenburg dem "Bibliotheksverbund Berlin-Brandenburg" (BVBB), davor "Berliner Bibliotheksverbund", BBV), (ehem. "Berliner Monographienverbund" bei. Dieser Anschluss lief für die UB der EUV so: Es wurden keine bestehenden Titelaufnahmen, d.h. keine alten Bestände, in den BVBB-Katalog gemeldet, sondern nur neue. Um Doppelarbeit zu vermeiden und die Titelaufnahmen sofort im Katalog zu haben, haben wir in Frankfurt (Oder) Titelaufnahmen mit der sog. Softcopy in den Lokalkatalog eingearbeitet. Es ging bei dieser Migration deshalb nicht um die vollständige Übernahme der Titelaufnahmen der UB der EUV, sondern "nur" um die Übernahme der neu erstellten Titelaufnahmen. Es gab daher in unserem Katalog damals zugleich BVBB- und nicht-BVBB-gestützte Titelaufnahmen.
    Date
    22. 2.2009 20:38:30
  6. Schramm, R.: Patentinformation (2004) 0.05
    0.049353614 = product of:
      0.09870723 = sum of:
        0.09870723 = sum of:
          0.07466667 = weight(_text_:d.h in 2955) [ClassicSimilarity], result of:
            0.07466667 = score(doc=2955,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.27274144 = fieldWeight in 2955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.03125 = fieldNorm(doc=2955)
          0.02404056 = weight(_text_:22 in 2955) [ClassicSimilarity], result of:
            0.02404056 = score(doc=2955,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.15476047 = fieldWeight in 2955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2955)
      0.5 = coord(1/2)
    
    Abstract
    Da nur 10 bis 30% der Erfindungen in anderen Quellen als in Patentschriften beschrieben werden, ist die Patentinformation für die Kenntnis des Weltstandes der Technik und seiner wirtschaftlichen Verwertungsbedingungen unersetzlich. Die aktuelle und vollständige Information über den Stand der Technik verdanken Wissenschaft, Technik und Wirtschaft dem Grundprinzip des Patentwesens: Das Patentwesen verhindert die Geheimhaltung technischen Wissens, indem es den Erfinder und Patentinhaber für die Preisgabe der Information rechtlich schützt, d.h. es verknüpft Technik und Recht aufwirtschaftsstimulierende Weise. Der daraus resultierende Doppelcharakter einer Patentschrift als Technik- und Rechtsdokument ist keine lästige Erschwernis, sondern ein zu nutzender Vorzug. Noch führt die ungenügende Kenntnis der Patentinformation zu unnötiger Doppelforschung und zu zurückgewiesenen Patentanmeldungen. Ein Drittel der Forschung und der Patentanmeldungen erfolgt nutzlos. Die Patentinformation kann - gestützt auf Patentdatenbanken und Volltextarchive in weltweiten und lokalen Informationsnetzen - einen wachsenden Beitrag an der Entwicklung und Markteinführung innovativer Produkte und Verfahren leisten.
    Date
    5. 4.2013 10:22:32
  7. Hehl, H.: ¬Die Linksysteme des Multisuchsystems E-Connect : Aufsatzrecherche mit Zugang zum Volltext und zu Verbundkatalogen (2003) 0.04
    0.043184415 = product of:
      0.08636883 = sum of:
        0.08636883 = sum of:
          0.06533334 = weight(_text_:d.h in 1688) [ClassicSimilarity], result of:
            0.06533334 = score(doc=1688,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.23864876 = fieldWeight in 1688, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1688)
          0.02103549 = weight(_text_:22 in 1688) [ClassicSimilarity], result of:
            0.02103549 = score(doc=1688,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.1354154 = fieldWeight in 1688, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1688)
      0.5 = coord(1/2)
    
    Abstract
    Die Hyperlinktechnologie des WWW wird von immer mehr bibliographischen Datenbanken genützt, um eine schnelle und umfassende Information und vor allem einen unmittelbaren Zugang zu den Informationsdokumenten wie Aufsätzen, Reports usw. anzubieten. Die Rechercheergebnisse einer webbasierten Datenbank sind dementsprechend oft mit einer ganzen Reihe von Hyperlinks ausgestattet. So gibt es in vielen Datenbanken Hyperlinks, die zu den Standortnachweisen von Zeitschriften in einem Verbundkatalog oder evtl. zur elektronischen Version einer Zeitschrift, d.h. zu deren Homepage, hinführen. In manchen Datenbanken führen Hyperlinks auch unmittelbar zum Volltext des einzelnen Artikels hin. Bei dieser mit dem englischen Fachausdruck Reference Linking bezeichneten bibliographischen Verknüpfungstechnik entsteht das Problem, wie ein auf einer Webseite zitierter oder von einer Datenbank als Treffer angezeigter Aufsatz so mit einer URL verbunden werden kann, dass als Ziel des Hyperlinks z.B. die entsprechende elektronische Version angesteuert oder der Bestandsnachweis der angegebenen Zeitschrift in einem Online-Katalog ermittelt wird. Eine akzeptable Lösung des Problems wäre eine standardisierte und frei zugängliche Art der URL-Adresse, ein sogen. OpenURL, der universell einsetzbar ist. Datenbanken, in denen diese Verknüpfungen bereits integriert sind, verwenden vielfach den DOI oder andere Metadaten in ihren Hyperlinkadressen. Der wesentliche Unterschied zwischen DOI und OpenURL besteht darin, dass die Daten für den DOI intern von den Datenbankanbietern vergeben werden, während die Daten für den OpenURL aus jedem einfachen Zitat genommen werden können. Daher ist der OpenURL leicht verwendbar und verknüpfbar, während die Verwendung des DOI in Verknüpfungssystemen davon abhängig ist, ob in dem Originaldokument bzw. der originalen Trefferanzeige ein solcher DOI auch angezeigt wird, was nicht immer der Fall ist. Selbst wenn in kommerziellen Datenbanken eine Verknüpfung mit elektronischen Zeitschriften integriert ist, zeigen diese meist keine Limitierung auf einen lokal verfügbaren Bestand an, so dass eine etwa vorhandene Zugänglichkeit auf Grund einer Subskription nicht erkennbar ist und die Verknüpfung oft ins Leere geht. Zudem führt ein Hyperlink oft nur dann auf den für eine Bibliothek verfügbaren Volltext, wenn die betreffende Zeitschrift beim Datenbankanbieter registriert ist. Die Linksysteme des Multisuchsystems E-Connect sind so konzipiert, dass sie durch ein vorangehendes Suchverfahren in einer Bestandsliste einen tatsächlichen (nicht bloß potentiellen!) Verfügbarkeitsnachweis für eine bestimmte Bibliothek herstellen. Dadurch ist sofort ein Überblick über evtl. zugängliche Volltexte vorhanden. Durch ein speziell von mir entwickeltes Verknüpfungsverfahren über die OpenURLs bzw. die Suchsysteme der Verlage und Gesellschaften ist außerdem der direkte Zugang zum Volltext möglich, unabhängig von einer etwaigen Registrierung und unabhängig davon, ob überhaupt in der Datenbank eine Verbindung zur betreffenden Zeitschrift besteht. Von dem Zugang zum Volltext abgesehen ist außerdem eine Verbindung eines angezeigten Treffers mit Verbundkatalogen wünschenswert, was von Datenbanken bisher nur wenig, von diesen Linksystemen aber durchweg realisiert wird. Das ist insofern wichtig, als es für viele Zeitschriften entweder überhaupt keine E-Version gibt oder keine Subskription vorliegt, so dass man auf die Printversion zurückgreifen muß. Bei einer Verbindung zum OPAC besteht außerdem auch vielfach die Möglichkeit einer Online-Bestellung, wodurch das Bestellverfahren beschleunigt und vereinfacht wird.
    Date
    22. 6.2003 12:20:08
  8. Manecke, H.-J.: Klassifikation, Klassieren (2004) 0.04
    0.041739937 = product of:
      0.083479874 = sum of:
        0.083479874 = product of:
          0.16695975 = sum of:
            0.16695975 = weight(_text_:d.h in 2902) [ClassicSimilarity], result of:
              0.16695975 = score(doc=2902,freq=10.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.6098684 = fieldWeight in 2902, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2902)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Unter Klassifikation wird ganz allgemein eine Gruppierung oder Einteilung des gesamten Wissens, der Wissenschaft und ihrer Disziplinen nach einheitlichen methodischen Prinzipien verstanden. Die Elemente (Bestandteile) der Klassifikationen werden als Klassen bezeichnet. Bei der Verwendung des Begriffs "Klassifikation" ist zu unterscheiden zwischen - dem Prozess der Klassifikationserarbeitung (d.h. der Klassenbildung); - dem Klassifikationssystem als Ergebnis des Klassenbildungsprozesses; - dem Prozess des Klassierens bzw des Klassifizierens, d.h. dem gegenseitigen Zuordnen von Objekten und Klassen des Klassifikationssystems. Dieses Zuordnen erfolgt auf der Grundlage mindestens eines gemeinsamen klassifikatorischen Merkmals (Klassern), das den einzelnen Objekten einer bestimmten Klasse eigen ist und sie von Objekten anderer Klassen unterscheidet. Gleichartige Objekte bzw. Sachverhalte, d.h. diejenigen, die mindestens ein identisches Merkmal haben, werden in einer Klasse zusammengefasst. Eine derartige Objektklassifikation ist Grundlage beispielsweise der Faktendokumentation, bei der Daten über Objekte, Sachverhalte etc. direkt gespeichert und abgefragt werden können. Ein Klassifikationssystem ist insgesamt das Ergebnis eines schrittweisen Strukturierungsprozesses, bei dem jeder Klasse in dem System ein bestimmter Platz zugeteilt wird. So erfüllen die Klassifikationen vor allem eine Ordnungsfunktion (Gleiches zu Gleichem), die ganz offensichtlich einem Grundbedürfnis des Menschen entspricht. Bereits in den Ländern des alten Orients und in der antiken Welt gab es Klassifikationen. Hinter jeder Klasse verbirgt sich ein dreistufiger Abstraktionsprozess, d.h. zunächst die Abstraktion vom Objekt bzw. Sachverhalt einer Klasse zum Begriff, der die Merkmale bestimmt, die diese Klasse von einer anderen unterscheidet. Dieser Begriff ist dann in einer nächsten Abstraktionsstufe durch eine äquivalente Bezeichnung auszudrücken. In diesem Abschnitt stehen Klassifikationssysteme für die Referenzdokumentation, d.h. ihr Einsatz als Dokumentationssprache bei der Erarbeitung von Referenzbeschreibungen für Wissensquellen, im Vordergrund. Sie zählen zu den am weitesten verbreiteten Dokumentationssprachen und zeichnen sich durch die ihnen innewohnende Systematik aus. Ein derartiges Klassifikationssystem ist eine strukturierte Zusammenstellung von Begriffen (Begriffssystematik), in der die Beziehungen zwischen den Begriffen (meist Ober- und Unterordnung) durch systemabbildende und von natürlichen Sprachen unabhängige Bezeichnungen (Notationen) dargestellt sind. Eine Notation ist demnach eine nach bestimmten Regeln gebildete Zeichenfolge, die eine Klasse (Systemstelle) repräsentiert und deren Stellung im systematischen Zusammenhang abbildet. Diese Notationen werden bei der Inhaltserschließung als inhaltskennzeichnende Merkmale (Indexterms) vergeben und sind somit Grundlage für das Speichern und Wiederauffinden. Hauptfunktion von Klassifikationen dieser Art ist also das Ordnen der Sachverhalte und Aussagen (der Essenz), die bei der Analyse von Publikationen und anderer Wissensquellen als wesentlich erkannt und mit Hilfe von Notationen repräsentiert worden sind. Die Erläuterung der nachfolgenden Grundlagen bezieht sich vor allem auf die Verwendung von Klassifikationen als Begriffsystematik. Sie gelten aber auch in analoger Weise für die o.a. Objektklassifikation, beispielsweise für die International Classification of Diseases (ICD). Sie dient weltweit für die Verschlüsselung von Diagnosen. Ausführlichere Erläuterungen enthält ein kürzlich zum Selbststudium entwickeltes einführendes Lehrbuch zum Thema Wissensorganisation.
  9. Kleiber, K.; Lindpointner, R.: DDC in Europa : Workshop "The use of the Dewey Decimal Classification (DDC) in Europe: recent developments and future perspectives" und "Meeting of the European DDC users' group" (2007) 0.04
    0.040749434 = product of:
      0.08149887 = sum of:
        0.08149887 = sum of:
          0.056 = weight(_text_:d.h in 1286) [ClassicSimilarity], result of:
            0.056 = score(doc=1286,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.20455608 = fieldWeight in 1286, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1286)
          0.025498865 = weight(_text_:22 in 1286) [ClassicSimilarity], result of:
            0.025498865 = score(doc=1286,freq=4.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.16414827 = fieldWeight in 1286, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1286)
      0.5 = coord(1/2)
    
    Content
    Der dann folgende Vortrag von Joan Mitchell mit dem programmatischen Titel "Locality and universality in the DDC" gab zuerst einen Überblick über die laufenden Übersetzungsprojekte, bezogen auf die Ed. 22, nämlich: Französisch, Italienisch, Spanisch, Griechisch, Arabisch und Chinesisch. Bezogen auf die Abridged Ed. 14 außerdem: Hebräisch und Vietnamesisch. Sie erwähnte auch den Einsatz von Dewey bei internationalen Projekten wie der "World Digital Library". Der zentrale Punkt des Vortrags betraf dann den Spagat zwischen ,Localization and Interoperability', d.h. zwischen Anpassung an regionale Gegebenheiten (wie z.B. Unterschiede in den Bereichen des Rechts- und Erziehungssystems) auf der einen Seite und Festhalten an der Durchgängigkeit der Bedeutung über alle Sprachen und Kulturen hinweg. Wie auch Magda Heiner-Freiling in ihrem Vortrag hinwies, hat sich die amerikanisch geprägte DDC im Zuge der Übersetzungsprojekte zwar schrittweise den Bedürfnissen der Benutzer in anderen Erdteilen geöffnet, dennoch bestehen noch zahlreiche Schwierigkeiten. Das von Heiner-Freiling erwähnte Beispiel der Pädagogik zeigte aber auch, dass Vorsicht bei Alleingängen auf nationaler Ebene geboten ist, da z.B. im Zuge des Bologna-Prozesses auch in Europa amerikanische institutionelle Strukturen und Terminologie im Bildungswesen Einzug halten. Weitere Vorträge befassten sich mit der Arbeit an elektronischen Verfahren zur automatischen Analyse von DDC-Notationen (Ulrike Reiner aus Göttingen), mit der DDC-Übersetzungs-Software, die für die Übersetzung ins Deutsche entwickelt wurde und nun auch in allen anderen Sprachen im Einsatz ist (Peter Werling, Fa. Pansoft) bzw. mit der DDC-Suche in verschiedenen Webportalen (Lars G. Svensson, DNB). Der abschließende Vortrag von Magda Heiner-Freiling (DNB) ging dann wieder ins Programmatische mit dem Vorschlag, eine gemeinsame European DDC Users Group (EDUG) zu gründen, um gemeinsame Anliegen der europäischen Dewey-User, was z.B. die anfangs erwähnten Probleme in einzelnen Bereichen betrifft, gemeinsam gegenüber den amerikanischen Herausgebern zu vertreten, um so mehr Einfluss auf die künftige Entwicklung der DDC zu haben.
    Wer sich näher für einzelne Themen interessiert, hat die Möglichkeit, auf der Homepage der Schweizer Nationalbibliothek die Präsentationsunterlagen der einzelnen Vorträge einzusehen (http://www.nb.admin.ch/slb/slb_professionnel/projektarbeit/00729/01615/01675/index.html?lang=de). Ziel des zweiten Tages war die Gründung einer europäischen DDC-Anwendergruppe zum Zweck der Vernetzung und Planung für die gemeinsame Entwicklungsarbeit. Anwesend waren Vertreterinnen der Nationalbibliotheken von Großbritannien, Deutschland, Frankreich, Schweden, Norwegen, Italien, Schweiz und Österreich sowie eine Vertreterin von OCLC. Eingeladen hatten die Nationalbibliotheken von Deutschland und der Schweiz. Vormittags wurde eine allgemeine Diskussion über die Ziele und Möglichkeiten einer solchen Anwendergruppe sowie allgemein über die Vorteile einer DDC-Anwendung in Europa diskutiert. Ziele von EDUG könnten sein: - Monitoring der europäischen DDC-Anwendungen - Kenntnis der unterschiedlichen Anwendungsregeln in den verschiedenen Ländern - Zugang auch zu den DDC-Übersetzungen in anderen Sprachen samt Expansionen - Zusammenarbeit beim Angebot von "built numbers" Zusammenarbeit mit OCLC als Vertreterin von europäischen Anliegen (die am Vortag ausführlich angesprochen worden waren) - Harmonisierung der Änderungen in den verschiedensprachigen Ausgaben (21./22. Ed., unterschiedliche Erweiterungen, anderer Sprachgebrauch) - Kooperation bei der Realisierung von technischen Plänen wie z.B. die automatische Klassifikation von Online-Dokumenten oder dem Mapping zu anderen Klassifikationssystemen - Weitergabe von Know-how und Erfahrungen an andere Interessierte Spontan wurden drei Arbeitsgruppen ins Leben gerufen, und zwar eine für technische Angelegenheiten und zwei inhaltliche für die kritischen Bereiche Recht und Erziehung. Nachmittags wurden die Satzungen von EDUG diskutiert und überarbeitet. Bei vielen Punkten wurde Übereinkunft erzielt. Einzelne Fragen blieben noch offen und sollen beim nächsten Treffen - wahrscheinlich im April 2008 in Frankfurt - endgültig fixiert werden."
  10. Malsburg, C. von der: Gehirn und Computer (2002) 0.04
    0.037333336 = product of:
      0.07466667 = sum of:
        0.07466667 = product of:
          0.14933334 = sum of:
            0.14933334 = weight(_text_:d.h in 5127) [ClassicSimilarity], result of:
              0.14933334 = score(doc=5127,freq=8.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.5454829 = fieldWeight in 5127, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5127)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Computer ist ein Gerät, das Algorithmen ausführt, d.h. Folgen einfacher Befehle, Das Charakteristische an einem Algorithmus ist, dass all' seine qualitativen Eigenschaften im Voraus geplant und ausprobiert sind, so dass während seiner Ausführung keine Ideen benötigt werden, keine qualitativen Fragen offen sind und keine Überraschungen vorkommen. Nur quantitative Entscheidungen müssen getroffen werden (z.B. "Nimm die nächste Ziffer und addiere sie zum Ergebnis!"). Genau diese Eigenschaft hat Alan Turing dazu geführt, Algorithmen als Maschinen zu formulieren. Es gibt eine sehr klare Trennung zwischen dem qualitativen und quantitativen Aspekt eines Algorithmus: Ersterer wird vom menschlichen Geist erfunden und als Regel formuliert, letzterer hat mit den Daten zu tun, die von den Regel bearbeitet werden. Die Regeln wirken niemals auf ihre eigene Struktur zurück. Wenn man sich bei der Betrachtung auf die äußerlich sichtbare Struktur von Algorithmen beschränkt, lässt man wichtige verborgene Aspekte außer Acht: Die Semantik, die den Symbolen Substanz, Bedeutung und Interpretation verleiht und auf Grund derer entschieden werden kann, ob die Regeln und Operationen überhaupt sinnvoll sind; Theologie, d.h. Motivation, Ziele, Werte, Ästhetik und Anwendbarkeitsbetrachtungen; und Heuristik, d.h. Methoden zur Erfindung neuer Strukturen. All' diese verborgenen Aspekte sind von der expliziten Betrachtung ausgeschlossen und sind doch wesentliche Bestandteile der Strukturen, für die explizite Algorithmen nur die sichtbare Oberfläche darstellen, Wenn man sich mit Algorithmen beschäftigt, hat man die Wahl, entweder nur die expliziten Strukturen zu betrachten - ein Blickpunkt, der im Kontext der Mathematik angemessen ist - oder auch die verborgenen Aspekte zu berücksichtigen und die Situation umfassend zu behandeln. Wenn man sich mit dem Gehirn und seiner Funktion befasst, ist letzteres Vorgehen zwingend. Verschiedene Probleme erwachsen der gegenwärtig vorherrschenden Auffassung, das Gehirn könne als algorithmisch gesteuerte Maschine verstanden werden. Erstens wäre ein "Hirnalgorithmus", d.h. eine vollständige und detaillierte Beschreibung der Funktionsweise des Gehirns, prinzipiell zu kompliziert, um für Menschen handhabbar oder zur Mitteilung von Wissen über unseren Geist geeignet zu sein. Zweitens lässt die algorithmische Auffassung die Frage offen, woher der Algorithmus eigentlich komme. Die naheliegende Antwort, dass er von der Evolution entwickelt wurde, verbietet sich, weil der Algorithmus viel zu kompliziert wäre, um über die Gene von Generation zu Generation weitergegeben zu werden, und weil die Evolution keinesfalls Prozeduren entwickelt haben kann, die für so neuartige Ideen wie Mathematik oder Chemie geeignet wären. Ein drittes Problem ist, dass sich das Gehirn offensichtlich selbst modifiziert, wenn es neue Ideen entwickelt, Dies widerspricht deutlich dem algorithmischen Denkansatz, der fordert, dass alle qualitativen Aspekte vorausgeplant sein müssen. Ein viertes Problem ist die Tatsache, dass der algorithmische Ansatz eine klare Abtrennung der Heuristik und der Teleologie vom expliziten Algorithmus fordert. Zusammengefasst wäre es lächerlich, die Arbeitsweise unseres Gehirns mit der Ausführung eines Algorithmus zu identifizieren.
  11. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.04
    0.03701521 = product of:
      0.07403042 = sum of:
        0.07403042 = sum of:
          0.056 = weight(_text_:d.h in 1833) [ClassicSimilarity], result of:
            0.056 = score(doc=1833,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.20455608 = fieldWeight in 1833, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1833)
          0.01803042 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
            0.01803042 = score(doc=1833,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.116070345 = fieldWeight in 1833, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1833)
      0.5 = coord(1/2)
    
    Abstract
    Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
    Date
    11. 5.2008 19:49:22
  12. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.04
    0.035227556 = product of:
      0.07045511 = sum of:
        0.07045511 = product of:
          0.28182045 = sum of:
            0.28182045 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.28182045 = score(doc=140,freq=2.0), product of:
                0.37608284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.044359796 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.25 = coord(1/4)
      0.5 = coord(1/2)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  13. RAK-NBM : Interpretationshilfe zu NBM 3b,3 (2000) 0.03
    0.033998486 = product of:
      0.06799697 = sum of:
        0.06799697 = product of:
          0.13599394 = sum of:
            0.13599394 = weight(_text_:22 in 4362) [ClassicSimilarity], result of:
              0.13599394 = score(doc=4362,freq=4.0), product of:
                0.15534045 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044359796 = queryNorm
                0.8754574 = fieldWeight in 4362, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4362)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2000 19:22:27
  14. Diederichs, A.: Wissensmanagement ist Macht : Effektiv und kostenbewußt arbeiten im Informationszeitalter (2005) 0.03
    0.033998486 = product of:
      0.06799697 = sum of:
        0.06799697 = product of:
          0.13599394 = sum of:
            0.13599394 = weight(_text_:22 in 3211) [ClassicSimilarity], result of:
              0.13599394 = score(doc=3211,freq=4.0), product of:
                0.15534045 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044359796 = queryNorm
                0.8754574 = fieldWeight in 3211, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3211)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.2005 9:16:22
  15. Nohr, H.: Theorie des Information Retrieval II : Automatische Indexierung (2004) 0.03
    0.03299832 = product of:
      0.06599664 = sum of:
        0.06599664 = product of:
          0.13199328 = sum of:
            0.13199328 = weight(_text_:d.h in 8) [ClassicSimilarity], result of:
              0.13199328 = score(doc=8,freq=4.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.4821433 = fieldWeight in 8, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=8)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Ein großer Teil der Informationen - Schätzungen zufolge bis zu 80% - liegt in Organisationen in unstrukturierten Dokumenten vor. In der Vergangenheit wurden Lösungen für das Management strukturierter Informationen entwickelt, die es nun auch zu erreichen gilt für unstrukturierte Informationen. Neben Verfahren des Data Mining für die Datenanalyse treten Versuche, Text Mining (Lit. 06) auf die Textanalyse anzuwenden. Um gezielt Dokumente im Repository suchen zu können, ist eine effektive Inhaltserkennung und -kennzeichnung erforderlich, d.h. eine Zuordnung der Dokumente zu Themengebieten bzw die Speicherung geeigneter Indexterme als Metadaten. Zu diesem Zweck müssen die Dokumenteninhalte repräsentiert, d.h. indexiert oder klassifiziert, werden. Dokumentanalyse dient auch der Steuerung des Informations- und Dokumentenflusses. Ziel ist die Einleitung eines "Workflow nach Posteingang". Eine Dokumentanalyse kann anhand erkannter Merkmale Eingangspost automatisch an den Sachbearbeiter oder die zuständige Organisationseinheit (Rechnungen in die Buchhaltung, Aufträge in den Vertrieb) im Unternehmen leiten. Dokumentanalysen werden auch benötigt, wenn Mitarbeiter über einen persönlichen Informationsfilter relevante Dokumente automatisch zugestellt bekommen sollen. Aufgrund der Systemintegration werden Indexierungslösungen in den Funktionsumfang von DMS- bzw. Workflow-Produkten integriert. Eine Architektur solcher Systeme zeigt Abb. 1. Die Architektur zeigt die Indexierungs- bzw. Klassifizierungsfunktion im Zentrum der Anwendung. Dabei erfüllt sie Aufgaben für die Repräsentation von Dokumenten (Metadaten) und das spätere Retrieval.
  16. Wille, R.: Begriffliche Wissensverarbeitung in der Wirtschaft (2002) 0.03
    0.03266667 = product of:
      0.06533334 = sum of:
        0.06533334 = product of:
          0.13066667 = sum of:
            0.13066667 = weight(_text_:d.h in 547) [ClassicSimilarity], result of:
              0.13066667 = score(doc=547,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.4772975 = fieldWeight in 547, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=547)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Begriffliche Wissensverarbeitung ist einem pragmatischen Wissensverständnis verpflichtet, nach dem menschliches Wissen in einem offenen Prozess menschlichen Denkens, Argumentierens und Kommunizierens entsteht und weiterlebt. Sie gründet sich auf eine mathematische Begriffstheorie, die auf das wechselseitige Zusammenwirken von Formalem und Inhaltlichem ausgerichtet ist. Wie diese theoretische Konzeption in der wirtschaftlichen Praxis zur Wirkung kommt wird erläutert anhand der Kernprozesse des organisationalen Wissensmanagements, d.h. nach G. Probst et al. anhand von Wissensidentifikation, Wissenserwerb, Wissensentwicklung, Wissens(ver)teilung, Wissensnutzung und Wissensbewahrung; jeweils an einem Beispiel wird der Einsatz spezifischer Methoden der Begrifflichen Wissensverarbeitung demonstriert. Abschließend wird auf den prozesshaften Wirkungszusammenhang von Wissenszielen und Wissensbewertungen mit den Kernprozessen aus Sicht der Begrifflichen Wissensverarbeitung eingegangen.
  17. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2000) 0.03
    0.03266667 = product of:
      0.06533334 = sum of:
        0.06533334 = product of:
          0.13066667 = sum of:
            0.13066667 = weight(_text_:d.h in 1082) [ClassicSimilarity], result of:
              0.13066667 = score(doc=1082,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.4772975 = fieldWeight in 1082, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1082)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält neben zahlreichen Obungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit den dazugehörigen Antworten. Das Buch ist von Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden dritten Auflage wurden Korrekturen und Aktualisierungen vorgenommen
  18. Oberhauser, O.; Labner, J.: Relevance Ranking in Online-Katalogen : Informationsstand und Perspektiven (2003) 0.03
    0.03266667 = product of:
      0.06533334 = sum of:
        0.06533334 = product of:
          0.13066667 = sum of:
            0.13066667 = weight(_text_:d.h in 2188) [ClassicSimilarity], result of:
              0.13066667 = score(doc=2188,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.4772975 = fieldWeight in 2188, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2188)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bekanntlich führen Suchmaschinen wie Google &Co. beider Auflistung der Suchergebnisse ein "Ranking" nach "Relevanz" durch, d.h. die Dokumente werden in absteigender Reihenfolge entsprechend ihrer Erfüllung von Relevanzkriterien ausgeben. In Online-Katalogen (OPACs) ist derlei noch nicht allgemein übliche Praxis, doch bietet etwa das im Österreichischen Bibliothekenverbund eingesetzte System Aleph 500 tatsächlich eine solche Ranking-Option an (die im Verbundkatalog auch implementiert ist). Bislang liegen allerdings kaum Informationen zur Funktionsweise dieses Features, insbesondere auch im Hinblick auf eine Hilfestellung für Benutzer, vor. Daher möchten wir mit diesem Beitrag versuchen, den in unserem Verbund bestehenden Informationsstand zum Thema "Relevance Ranking" zu erweitern. Sowohl die Verwendung einer Ranking-Option in OPACs generell als auch die sich unter Aleph 500 konkret bietenden Möglichkeiten sollen im folgenden näher betrachtet werden.
  19. Witsch, M.: Ästhetische Zeichenanalyse - eine Methode zur Analyse fundamentalistischer Agitation im Internet (2004) 0.03
    0.03266667 = product of:
      0.06533334 = sum of:
        0.06533334 = product of:
          0.13066667 = sum of:
            0.13066667 = weight(_text_:d.h in 3141) [ClassicSimilarity], result of:
              0.13066667 = score(doc=3141,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.4772975 = fieldWeight in 3141, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3141)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Warum eigens eine Methode zur Analyse fundamentalistischer Agitation im Internet? Weil der semiotische Universalcharakter des Intemets, d.h. die Verflechtung von Bild, Sprache und Schrift die Möglichkeiten revolutioniert, Welt zu konstruieren und wahrzunehmen. Weil im multimedialen Raum des Internets das demokratischste Prinzip von Demokratie enthalten ist: "Unbestimmtheit". Weil Fundamentalismus diese Unbestimmtheit vernichten muss.
  20. Budin, G.: Begriffliche Wissensorganisation in den Sozialwissenschaften : Theorien- und Methodenvielfalt (2006) 0.03
    0.03266667 = product of:
      0.06533334 = sum of:
        0.06533334 = product of:
          0.13066667 = sum of:
            0.13066667 = weight(_text_:d.h in 5704) [ClassicSimilarity], result of:
              0.13066667 = score(doc=5704,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.4772975 = fieldWeight in 5704, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5704)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Beitrag möchte ich ein Thema aufgreifen, das bereits seit vielen Jahren diskutiert wird. Die Organisation sozialwissenschaftlichen Wissens auf begrifflicher Ebene ist Gegenstandsbereich sowohl für die Bibliotheks- und Informationswissenschaften bzw. für das Dokumentationswesen (Soergel 1971), als auch für die sozialwissenschaftliche Theoriendiskussion. Mit der Perspektive der terminologischen (d.h. also begrifflichen) Wissensorganisation haben wir den Vorteil, dass wir das Thema sowohl auf der theoretischen Ebene wie auch auf der praktischen Ebene gut miteinander verbinden können.

Types

  • a 596
  • m 90
  • el 19
  • s 19
  • x 15
  • i 8
  • b 2
  • r 2
  • n 1
  • More… Less…

Themes

Subjects

Classifications