Search (1140 results, page 1 of 57)

  • × language_ss:"d"
  • × type_ss:"a"
  1. Hubel, D.H.: ¬Das Gehirn (1979) 0.12
    0.123384036 = product of:
      0.24676807 = sum of:
        0.24676807 = sum of:
          0.18666667 = weight(_text_:d.h in 738) [ClassicSimilarity], result of:
            0.18666667 = score(doc=738,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.6818536 = fieldWeight in 738, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.078125 = fieldNorm(doc=738)
          0.0601014 = weight(_text_:22 in 738) [ClassicSimilarity], result of:
            0.0601014 = score(doc=738,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.38690117 = fieldWeight in 738, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=738)
      0.5 = coord(1/2)
    
    Date
    22. 7.2000 19:02:36
  2. Hubel, D.H.; Wiesel, T.N.: ¬Die Verarbeitung visueller Informationen (1979) 0.12
    0.123384036 = product of:
      0.24676807 = sum of:
        0.24676807 = sum of:
          0.18666667 = weight(_text_:d.h in 3579) [ClassicSimilarity], result of:
            0.18666667 = score(doc=3579,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.6818536 = fieldWeight in 3579, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.078125 = fieldNorm(doc=3579)
          0.0601014 = weight(_text_:22 in 3579) [ClassicSimilarity], result of:
            0.0601014 = score(doc=3579,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.38690117 = fieldWeight in 3579, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=3579)
      0.5 = coord(1/2)
    
    Date
    22. 7.2000 19:03:33
  3. Hastik, C.; Schuster, A.; Knauerhase, A.: Wissenschaftliche Suchmaschinen : Usability Evaluation und Betrachtung des Suchverhaltens potentieller Nutzer (2009) 0.09
    0.08636883 = product of:
      0.17273766 = sum of:
        0.17273766 = sum of:
          0.13066667 = weight(_text_:d.h in 2768) [ClassicSimilarity], result of:
            0.13066667 = score(doc=2768,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.4772975 = fieldWeight in 2768, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2768)
          0.04207098 = weight(_text_:22 in 2768) [ClassicSimilarity], result of:
            0.04207098 = score(doc=2768,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.2708308 = fieldWeight in 2768, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2768)
      0.5 = coord(1/2)
    
    Abstract
    Wissenschaftliche Suchmaschinen haben es nicht leicht in einer "Amazoogle" gestalteten Welt. Dabei ist nicht nur die Einfachheit der Benutzerschnittstelle d.h. die Umsetzung von Usability-Anforderungen entscheidend für den Erfolg, sondern ebenso die Qualität der Suchergebnisse. Im Rahmen des Masterprojektes "Wissenschaftliche Suchmaschinen" an der Hochschule Darmstadt werden benutzerspezifische Bedürfnisse, Anforderungen und Aspekte der Wahrnehmung in Relation zum individuellen Informationssuchverhalten aufgerollt und methodisch evaluiert. Es wird der Fragestellung nachgegangen, was die Informationssuche auszeichnet und welche Rolle die Informationskompetenz der Nutzer in diesem Rahmen spielt. Anschließend werden die Ergebnisse detailliert skizziert, analysiert und daraus Rückschlüsse auf die zielgruppenspezifischen Anforderungen und Bedürfnisse hinsichtlich der Gestaltung von wissenschaftlichen Suchmaschinen gezogen.
    Date
    23. 3.2009 14:49:22
  4. Oehlschläger, S.: Treffpunkt Standardisierung 2012 (2012) 0.09
    0.08636883 = product of:
      0.17273766 = sum of:
        0.17273766 = sum of:
          0.13066667 = weight(_text_:d.h in 316) [ClassicSimilarity], result of:
            0.13066667 = score(doc=316,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.4772975 = fieldWeight in 316, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0546875 = fieldNorm(doc=316)
          0.04207098 = weight(_text_:22 in 316) [ClassicSimilarity], result of:
            0.04207098 = score(doc=316,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.2708308 = fieldWeight in 316, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=316)
      0.5 = coord(1/2)
    
    Content
    Hamburg, das Tor zur Welt, war in diesem Jahr Gastgeber für den 101. Deutschen Bibliothekartag. "Bibliotheken - Tore zur Welt des Wissens" lautete dementsprechend auch das Motto der Veranstaltung, die von 4730 Teilnehmerinnen und Teilnehmern vornehmlich aus Deutschland, aber auch aus vielen europäischen Nachbarstaaten sowie den USA besucht wurde. Rund 300 Vortragsveranstaltungen innerhalb von 10 Themenkreisen sowie etliche Arbeits- und Gremiensitzungen wurden vom 22. bis 25. Mai durchgeführt. Im Themenkreis "Neue Netze und Portale" war auch der "Treffpunkt Standardisierung" angesiedelt, den der Standardisierungsausschuss seit dem Jahr 2001, d.h. nunmehr zum elften Mal, angeboten hat und der unverändert sehr gut besucht war. Berndt Dugall, der Vorsitzende des Standardisierungsausschusses, führte durch den Vormittag und rief einleitend den Zuhörerinnen und Zuhörern die Anfänge dieser Veranstaltungsreihe beim Bibliothekartag in Bielefeld ins Gedächtnis.
  5. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.08
    0.08383905 = sum of:
      0.068813704 = product of:
        0.27525482 = sum of:
          0.27525482 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
            0.27525482 = score(doc=193,freq=2.0), product of:
              0.47013733 = queryWeight, product of:
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.044359796 = queryNorm
              0.5854775 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.25 = coord(1/4)
      0.01502535 = product of:
        0.0300507 = sum of:
          0.0300507 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
            0.0300507 = score(doc=193,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.5 = coord(1/2)
    
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  6. Körner, H.P.; Paetel, D.H.; Ruppert, W.-R.: Sehen und agieren mit dem CICERO-Thesaurus (1988) 0.07
    0.07466667 = product of:
      0.14933334 = sum of:
        0.14933334 = product of:
          0.2986667 = sum of:
            0.2986667 = weight(_text_:d.h in 4198) [ClassicSimilarity], result of:
              0.2986667 = score(doc=4198,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                1.0909657 = fieldWeight in 4198, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.125 = fieldNorm(doc=4198)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  7. Rostek, L.; Fischer, D.H.: Objektorientierte Modellierung eines Thesaurus auf der Basis eines Frame-Systems mit graphischer Benutzerschnittstelle (1988) 0.07
    0.06533334 = product of:
      0.13066667 = sum of:
        0.13066667 = product of:
          0.26133335 = sum of:
            0.26133335 = weight(_text_:d.h in 23) [ClassicSimilarity], result of:
              0.26133335 = score(doc=23,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.954595 = fieldWeight in 23, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.109375 = fieldNorm(doc=23)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  8. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.06
    0.061692018 = product of:
      0.123384036 = sum of:
        0.123384036 = sum of:
          0.093333334 = weight(_text_:d.h in 5773) [ClassicSimilarity], result of:
            0.093333334 = score(doc=5773,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.3409268 = fieldWeight in 5773, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5773)
          0.0300507 = weight(_text_:22 in 5773) [ClassicSimilarity], result of:
            0.0300507 = score(doc=5773,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 5773, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5773)
      0.5 = coord(1/2)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
    Source
    Password. 2000, H.5, S.22-31
  9. Ball, R.: Wissenschaftsindikatoren im Zeitalter digitaler Wissenschaft (2007) 0.06
    0.061692018 = product of:
      0.123384036 = sum of:
        0.123384036 = sum of:
          0.093333334 = weight(_text_:d.h in 875) [ClassicSimilarity], result of:
            0.093333334 = score(doc=875,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.3409268 = fieldWeight in 875, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0390625 = fieldNorm(doc=875)
          0.0300507 = weight(_text_:22 in 875) [ClassicSimilarity], result of:
            0.0300507 = score(doc=875,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 875, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=875)
      0.5 = coord(1/2)
    
    Abstract
    Die Bereitstellung und Nutzung digitaler Bibliotheken entwickelt sich allmählich zum Standard der Literatur und Informationsversorgung in Wissenschaft und Forschung. Ganzen Disziplinen genügt oftmals die verfügbare digitale Information, Printmedien werden besonders im STM-Segment zu einem Nischenprodukt. Digitale Texte können beliebig eingebaut, kopiert und nachgenutzt werden, die Verlinkung zwischen Metadaten und Volltexten bringt weitere Nutzungsvorteile. Dabei sind die Angebote von Digital Libraries Bestandteil eines ganzheitlichen digitalen Ansatzes, wonach die elektronische Informations- und Literaturversorgung integraler Bestandteil von E-Science (Enhanced Science) oder Cyberinfrastructure darstellt. Hierbei verschmelzen dann Produktion, Diskussion, Distribution und Rezeption der wissenschaftlichen Inhalte auf einer einzigen digitalen Plattform. Damit sind dann nicht nur die Literatur- und Informationsversorgung (Digital Libraries), sondern auch die Wissenschaft selbst digital geworden. Diese dramatische Veränderung in der Wissenschaftskommunikation hat direkte Auswirkungen auf die Messung der Wissenschaftskommunikation, also auf die Evaluation von wissenschaftlichem Output. Bisherige Systeme der Wissenschaftsvermessung basieren hauptsächlich auf bibliometrischen Analysen, d.h. der Quantifizierung des Outputs und dessen Rezeption (Zitierhäufigkeit). Basis dafür sind insbesondere im STM-Bereich die international anerkannten Datenbanken des ISI (Thomson Scientific) insbesondere der Science Citation Index, SCI) oder vielleicht zukünftig das Konkurrenzprodukt SCOPUS des Wissenschaftskonzerns Reed Elsevier. Die Digitalisierung der Wissenschaft in ihrem kompletten Lebenszyklus, die zunehmende Nutzung und Akzeptanz von Dokumentenrepositorien, Institutsservern und anderen elektronischen Publikationsformen im Rahmen von E-Science erfordern und ermöglichen zugleich den Nachweis von Output und Rezeption durch neue bibliometrische Formen, etwa der Webometrie (Webmetrics). Im vorliegenden Paper haben wir hierzu Analysen durchgeführt und stellen eine Abschätzung vor, wie sich der Anteil von webometrisch erfassbarer und zugänglicher wissenschaftlicher Literatur im Vergleich zu Literatur, die mit den Standardsystemen nachgewiesen werden kann im Laufe der letzten Jahre verändert hat. Dabei haben wir unterschiedliche Disziplinen und Länder berücksichtigt. Zudem wird ein Vergleich der webometrischen Nachweisqualität so unterschiedlicher Systeme wie SCI, SCOPUS und Google Scholar vorgestellt.
    Date
    23.12.2007 19:22:21
  10. Klauß, H.: Pilotmigration UB des BIZ der Europa-Universität Viadrina - Frankfurt (Oder) in den BVB (2009) 0.06
    0.061692018 = product of:
      0.123384036 = sum of:
        0.123384036 = sum of:
          0.093333334 = weight(_text_:d.h in 3282) [ClassicSimilarity], result of:
            0.093333334 = score(doc=3282,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.3409268 = fieldWeight in 3282, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3282)
          0.0300507 = weight(_text_:22 in 3282) [ClassicSimilarity], result of:
            0.0300507 = score(doc=3282,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 3282, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3282)
      0.5 = coord(1/2)
    
    Abstract
    Ende 2007 wurde die "Vereinbarung zur Strategischen Allianz zwischen dem Bibliotheksverbund Bayern (BVB) und dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV)" beschlossen). Infolgedessen werden die Kataloge von vielen Bibliotheken aus Berlin und Brandenburg zusammengeführt. Die beteiligten Bibliotheken sind teils SISIS-, teils Aleph-Bibliotheken. Die UB des Bibliotheks- und Informationszentrum (BIZ) Frankfurt (Oder) hat für die SISIS-Bibliotheken die Pilotierung übernommen. Es soll im Folgenden nicht das Verfahren der Beschlussfassung in dieser Sache thematisiert werden, sondern es sollen einige Anmerkungen gemacht werden zur Berlin-Brandenburgischen Bibliotheksgeschichte bzgl. Verbundkatalogisierung und lokal autonomer Katalogisierung im Hinblick auf die Allianz sowie gewisse Rahmenbedingungen und einiger Details der Migration bei uns. Im Jahr 1994 trat das Land Brandenburg dem "Bibliotheksverbund Berlin-Brandenburg" (BVBB), davor "Berliner Bibliotheksverbund", BBV), (ehem. "Berliner Monographienverbund" bei. Dieser Anschluss lief für die UB der EUV so: Es wurden keine bestehenden Titelaufnahmen, d.h. keine alten Bestände, in den BVBB-Katalog gemeldet, sondern nur neue. Um Doppelarbeit zu vermeiden und die Titelaufnahmen sofort im Katalog zu haben, haben wir in Frankfurt (Oder) Titelaufnahmen mit der sog. Softcopy in den Lokalkatalog eingearbeitet. Es ging bei dieser Migration deshalb nicht um die vollständige Übernahme der Titelaufnahmen der UB der EUV, sondern "nur" um die Übernahme der neu erstellten Titelaufnahmen. Es gab daher in unserem Katalog damals zugleich BVBB- und nicht-BVBB-gestützte Titelaufnahmen.
    Date
    22. 2.2009 20:38:30
  11. Capurro, R.: Informationsethos und Informationsethik : Gedanken zum verantwortungsvollen Handeln im Bereich der Fachinformation (1988) 0.05
    0.05279731 = product of:
      0.10559462 = sum of:
        0.10559462 = product of:
          0.21118924 = sum of:
            0.21118924 = weight(_text_:d.h in 2462) [ClassicSimilarity], result of:
              0.21118924 = score(doc=2462,freq=4.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.7714293 = fieldWeight in 2462, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2462)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Unterschied zwischen 'Informationsethos', d.h. die herrschende Informationsgewohnheiten einer Gruppe oder Gesellschaft und 'Informationsethik', d.h. die kritische Begründung moralischer Soll-Vorstellungen im Bereich der Fachinformation, bildet den Ausgangspunkt dieser Überlegungen. Ihre Kernthese besagt, daß der Staat eine originäre Verantwortung im Hinblick auf die Demokratisierung des Zugangs zur elektronischen Information hat. Das 'Netz' des öffentlichen Bibliothekswesens könnte hier eine entscheidende Rolle spielen
  12. Schramm, R.: Patentinformation (2004) 0.05
    0.049353614 = product of:
      0.09870723 = sum of:
        0.09870723 = sum of:
          0.07466667 = weight(_text_:d.h in 2955) [ClassicSimilarity], result of:
            0.07466667 = score(doc=2955,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.27274144 = fieldWeight in 2955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.03125 = fieldNorm(doc=2955)
          0.02404056 = weight(_text_:22 in 2955) [ClassicSimilarity], result of:
            0.02404056 = score(doc=2955,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.15476047 = fieldWeight in 2955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2955)
      0.5 = coord(1/2)
    
    Abstract
    Da nur 10 bis 30% der Erfindungen in anderen Quellen als in Patentschriften beschrieben werden, ist die Patentinformation für die Kenntnis des Weltstandes der Technik und seiner wirtschaftlichen Verwertungsbedingungen unersetzlich. Die aktuelle und vollständige Information über den Stand der Technik verdanken Wissenschaft, Technik und Wirtschaft dem Grundprinzip des Patentwesens: Das Patentwesen verhindert die Geheimhaltung technischen Wissens, indem es den Erfinder und Patentinhaber für die Preisgabe der Information rechtlich schützt, d.h. es verknüpft Technik und Recht aufwirtschaftsstimulierende Weise. Der daraus resultierende Doppelcharakter einer Patentschrift als Technik- und Rechtsdokument ist keine lästige Erschwernis, sondern ein zu nutzender Vorzug. Noch führt die ungenügende Kenntnis der Patentinformation zu unnötiger Doppelforschung und zu zurückgewiesenen Patentanmeldungen. Ein Drittel der Forschung und der Patentanmeldungen erfolgt nutzlos. Die Patentinformation kann - gestützt auf Patentdatenbanken und Volltextarchive in weltweiten und lokalen Informationsnetzen - einen wachsenden Beitrag an der Entwicklung und Markteinführung innovativer Produkte und Verfahren leisten.
    Date
    5. 4.2013 10:22:32
  13. Freies Navigieren in Informationsräumen? : Die Suche nach optimalen Freiheitsgraden in Hypermedien (1993) 0.05
    0.046666667 = product of:
      0.093333334 = sum of:
        0.093333334 = product of:
          0.18666667 = sum of:
            0.18666667 = weight(_text_:d.h in 5349) [ClassicSimilarity], result of:
              0.18666667 = score(doc=5349,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.6818536 = fieldWeight in 5349, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5349)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Mit Hypermedienstrukturen lassen sich Informationsmengen flexibler strukturieren als mit herkömmlichen, sequentiellen Organisationsformen. Neben reinem text können auch Multimedien, d.h. Text, Grafik, und Töne vernetzt organisiert werden. Der Artikel beschreibt die Schwierigkeiten, die sich bei der Entwicklung eines Hypermediensystem ergeben
  14. Rahmstorf, G.: Sprachlich bestimmte Begriffssysteme und Klassifikation (1982) 0.05
    0.04619765 = product of:
      0.0923953 = sum of:
        0.0923953 = product of:
          0.1847906 = sum of:
            0.1847906 = weight(_text_:d.h in 103) [ClassicSimilarity], result of:
              0.1847906 = score(doc=103,freq=4.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.67500067 = fieldWeight in 103, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=103)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Es erscheint notwendig, einen neuen, weiter gefaßten Rahmen für die Beschreibung von begriffen und ihren Beziehungen einzuführen. Danach sollte ein Begriffssystem 4 Grundfunktionen erfüllen: 1. Benennung, d.h. systematischer Zusammenhang zwischen sprachlichen Benennungsausdrücken (Nominalgruppen) und ihren Bedeutungen (Begriffen), 2. Strukturabbildung, d.h. formale Darstellung der Beziehungen zwischen den Begriffen, 3. Tranformations- und Integrationsbasis für Benennungen in verschiedenen Sprachen, für verschiedene Terminologien und für Notationen verschiedener Klassifikationssysteme, 4. Grundlage für logische Schlüsse und für Relevanzentscheidungen (Information Retrieval). Der Beitrag befaßt sich mit den Bauprinzipien eines Begriffssystems für diese Forderungen
  15. Hehl, H.: ¬Die Linksysteme des Multisuchsystems E-Connect : Aufsatzrecherche mit Zugang zum Volltext und zu Verbundkatalogen (2003) 0.04
    0.043184415 = product of:
      0.08636883 = sum of:
        0.08636883 = sum of:
          0.06533334 = weight(_text_:d.h in 1688) [ClassicSimilarity], result of:
            0.06533334 = score(doc=1688,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.23864876 = fieldWeight in 1688, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1688)
          0.02103549 = weight(_text_:22 in 1688) [ClassicSimilarity], result of:
            0.02103549 = score(doc=1688,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.1354154 = fieldWeight in 1688, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1688)
      0.5 = coord(1/2)
    
    Abstract
    Die Hyperlinktechnologie des WWW wird von immer mehr bibliographischen Datenbanken genützt, um eine schnelle und umfassende Information und vor allem einen unmittelbaren Zugang zu den Informationsdokumenten wie Aufsätzen, Reports usw. anzubieten. Die Rechercheergebnisse einer webbasierten Datenbank sind dementsprechend oft mit einer ganzen Reihe von Hyperlinks ausgestattet. So gibt es in vielen Datenbanken Hyperlinks, die zu den Standortnachweisen von Zeitschriften in einem Verbundkatalog oder evtl. zur elektronischen Version einer Zeitschrift, d.h. zu deren Homepage, hinführen. In manchen Datenbanken führen Hyperlinks auch unmittelbar zum Volltext des einzelnen Artikels hin. Bei dieser mit dem englischen Fachausdruck Reference Linking bezeichneten bibliographischen Verknüpfungstechnik entsteht das Problem, wie ein auf einer Webseite zitierter oder von einer Datenbank als Treffer angezeigter Aufsatz so mit einer URL verbunden werden kann, dass als Ziel des Hyperlinks z.B. die entsprechende elektronische Version angesteuert oder der Bestandsnachweis der angegebenen Zeitschrift in einem Online-Katalog ermittelt wird. Eine akzeptable Lösung des Problems wäre eine standardisierte und frei zugängliche Art der URL-Adresse, ein sogen. OpenURL, der universell einsetzbar ist. Datenbanken, in denen diese Verknüpfungen bereits integriert sind, verwenden vielfach den DOI oder andere Metadaten in ihren Hyperlinkadressen. Der wesentliche Unterschied zwischen DOI und OpenURL besteht darin, dass die Daten für den DOI intern von den Datenbankanbietern vergeben werden, während die Daten für den OpenURL aus jedem einfachen Zitat genommen werden können. Daher ist der OpenURL leicht verwendbar und verknüpfbar, während die Verwendung des DOI in Verknüpfungssystemen davon abhängig ist, ob in dem Originaldokument bzw. der originalen Trefferanzeige ein solcher DOI auch angezeigt wird, was nicht immer der Fall ist. Selbst wenn in kommerziellen Datenbanken eine Verknüpfung mit elektronischen Zeitschriften integriert ist, zeigen diese meist keine Limitierung auf einen lokal verfügbaren Bestand an, so dass eine etwa vorhandene Zugänglichkeit auf Grund einer Subskription nicht erkennbar ist und die Verknüpfung oft ins Leere geht. Zudem führt ein Hyperlink oft nur dann auf den für eine Bibliothek verfügbaren Volltext, wenn die betreffende Zeitschrift beim Datenbankanbieter registriert ist. Die Linksysteme des Multisuchsystems E-Connect sind so konzipiert, dass sie durch ein vorangehendes Suchverfahren in einer Bestandsliste einen tatsächlichen (nicht bloß potentiellen!) Verfügbarkeitsnachweis für eine bestimmte Bibliothek herstellen. Dadurch ist sofort ein Überblick über evtl. zugängliche Volltexte vorhanden. Durch ein speziell von mir entwickeltes Verknüpfungsverfahren über die OpenURLs bzw. die Suchsysteme der Verlage und Gesellschaften ist außerdem der direkte Zugang zum Volltext möglich, unabhängig von einer etwaigen Registrierung und unabhängig davon, ob überhaupt in der Datenbank eine Verbindung zur betreffenden Zeitschrift besteht. Von dem Zugang zum Volltext abgesehen ist außerdem eine Verbindung eines angezeigten Treffers mit Verbundkatalogen wünschenswert, was von Datenbanken bisher nur wenig, von diesen Linksystemen aber durchweg realisiert wird. Das ist insofern wichtig, als es für viele Zeitschriften entweder überhaupt keine E-Version gibt oder keine Subskription vorliegt, so dass man auf die Printversion zurückgreifen muß. Bei einer Verbindung zum OPAC besteht außerdem auch vielfach die Möglichkeit einer Online-Bestellung, wodurch das Bestellverfahren beschleunigt und vereinfacht wird.
    Date
    22. 6.2003 12:20:08
  16. Manecke, H.-J.: Klassifikation, Klassieren (2004) 0.04
    0.041739937 = product of:
      0.083479874 = sum of:
        0.083479874 = product of:
          0.16695975 = sum of:
            0.16695975 = weight(_text_:d.h in 2902) [ClassicSimilarity], result of:
              0.16695975 = score(doc=2902,freq=10.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.6098684 = fieldWeight in 2902, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2902)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Unter Klassifikation wird ganz allgemein eine Gruppierung oder Einteilung des gesamten Wissens, der Wissenschaft und ihrer Disziplinen nach einheitlichen methodischen Prinzipien verstanden. Die Elemente (Bestandteile) der Klassifikationen werden als Klassen bezeichnet. Bei der Verwendung des Begriffs "Klassifikation" ist zu unterscheiden zwischen - dem Prozess der Klassifikationserarbeitung (d.h. der Klassenbildung); - dem Klassifikationssystem als Ergebnis des Klassenbildungsprozesses; - dem Prozess des Klassierens bzw des Klassifizierens, d.h. dem gegenseitigen Zuordnen von Objekten und Klassen des Klassifikationssystems. Dieses Zuordnen erfolgt auf der Grundlage mindestens eines gemeinsamen klassifikatorischen Merkmals (Klassern), das den einzelnen Objekten einer bestimmten Klasse eigen ist und sie von Objekten anderer Klassen unterscheidet. Gleichartige Objekte bzw. Sachverhalte, d.h. diejenigen, die mindestens ein identisches Merkmal haben, werden in einer Klasse zusammengefasst. Eine derartige Objektklassifikation ist Grundlage beispielsweise der Faktendokumentation, bei der Daten über Objekte, Sachverhalte etc. direkt gespeichert und abgefragt werden können. Ein Klassifikationssystem ist insgesamt das Ergebnis eines schrittweisen Strukturierungsprozesses, bei dem jeder Klasse in dem System ein bestimmter Platz zugeteilt wird. So erfüllen die Klassifikationen vor allem eine Ordnungsfunktion (Gleiches zu Gleichem), die ganz offensichtlich einem Grundbedürfnis des Menschen entspricht. Bereits in den Ländern des alten Orients und in der antiken Welt gab es Klassifikationen. Hinter jeder Klasse verbirgt sich ein dreistufiger Abstraktionsprozess, d.h. zunächst die Abstraktion vom Objekt bzw. Sachverhalt einer Klasse zum Begriff, der die Merkmale bestimmt, die diese Klasse von einer anderen unterscheidet. Dieser Begriff ist dann in einer nächsten Abstraktionsstufe durch eine äquivalente Bezeichnung auszudrücken. In diesem Abschnitt stehen Klassifikationssysteme für die Referenzdokumentation, d.h. ihr Einsatz als Dokumentationssprache bei der Erarbeitung von Referenzbeschreibungen für Wissensquellen, im Vordergrund. Sie zählen zu den am weitesten verbreiteten Dokumentationssprachen und zeichnen sich durch die ihnen innewohnende Systematik aus. Ein derartiges Klassifikationssystem ist eine strukturierte Zusammenstellung von Begriffen (Begriffssystematik), in der die Beziehungen zwischen den Begriffen (meist Ober- und Unterordnung) durch systemabbildende und von natürlichen Sprachen unabhängige Bezeichnungen (Notationen) dargestellt sind. Eine Notation ist demnach eine nach bestimmten Regeln gebildete Zeichenfolge, die eine Klasse (Systemstelle) repräsentiert und deren Stellung im systematischen Zusammenhang abbildet. Diese Notationen werden bei der Inhaltserschließung als inhaltskennzeichnende Merkmale (Indexterms) vergeben und sind somit Grundlage für das Speichern und Wiederauffinden. Hauptfunktion von Klassifikationen dieser Art ist also das Ordnen der Sachverhalte und Aussagen (der Essenz), die bei der Analyse von Publikationen und anderer Wissensquellen als wesentlich erkannt und mit Hilfe von Notationen repräsentiert worden sind. Die Erläuterung der nachfolgenden Grundlagen bezieht sich vor allem auf die Verwendung von Klassifikationen als Begriffsystematik. Sie gelten aber auch in analoger Weise für die o.a. Objektklassifikation, beispielsweise für die International Classification of Diseases (ICD). Sie dient weltweit für die Verschlüsselung von Diagnosen. Ausführlichere Erläuterungen enthält ein kürzlich zum Selbststudium entwickeltes einführendes Lehrbuch zum Thema Wissensorganisation.
  17. Kleiber, K.; Lindpointner, R.: DDC in Europa : Workshop "The use of the Dewey Decimal Classification (DDC) in Europe: recent developments and future perspectives" und "Meeting of the European DDC users' group" (2007) 0.04
    0.040749434 = product of:
      0.08149887 = sum of:
        0.08149887 = sum of:
          0.056 = weight(_text_:d.h in 1286) [ClassicSimilarity], result of:
            0.056 = score(doc=1286,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.20455608 = fieldWeight in 1286, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1286)
          0.025498865 = weight(_text_:22 in 1286) [ClassicSimilarity], result of:
            0.025498865 = score(doc=1286,freq=4.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.16414827 = fieldWeight in 1286, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1286)
      0.5 = coord(1/2)
    
    Content
    Der dann folgende Vortrag von Joan Mitchell mit dem programmatischen Titel "Locality and universality in the DDC" gab zuerst einen Überblick über die laufenden Übersetzungsprojekte, bezogen auf die Ed. 22, nämlich: Französisch, Italienisch, Spanisch, Griechisch, Arabisch und Chinesisch. Bezogen auf die Abridged Ed. 14 außerdem: Hebräisch und Vietnamesisch. Sie erwähnte auch den Einsatz von Dewey bei internationalen Projekten wie der "World Digital Library". Der zentrale Punkt des Vortrags betraf dann den Spagat zwischen ,Localization and Interoperability', d.h. zwischen Anpassung an regionale Gegebenheiten (wie z.B. Unterschiede in den Bereichen des Rechts- und Erziehungssystems) auf der einen Seite und Festhalten an der Durchgängigkeit der Bedeutung über alle Sprachen und Kulturen hinweg. Wie auch Magda Heiner-Freiling in ihrem Vortrag hinwies, hat sich die amerikanisch geprägte DDC im Zuge der Übersetzungsprojekte zwar schrittweise den Bedürfnissen der Benutzer in anderen Erdteilen geöffnet, dennoch bestehen noch zahlreiche Schwierigkeiten. Das von Heiner-Freiling erwähnte Beispiel der Pädagogik zeigte aber auch, dass Vorsicht bei Alleingängen auf nationaler Ebene geboten ist, da z.B. im Zuge des Bologna-Prozesses auch in Europa amerikanische institutionelle Strukturen und Terminologie im Bildungswesen Einzug halten. Weitere Vorträge befassten sich mit der Arbeit an elektronischen Verfahren zur automatischen Analyse von DDC-Notationen (Ulrike Reiner aus Göttingen), mit der DDC-Übersetzungs-Software, die für die Übersetzung ins Deutsche entwickelt wurde und nun auch in allen anderen Sprachen im Einsatz ist (Peter Werling, Fa. Pansoft) bzw. mit der DDC-Suche in verschiedenen Webportalen (Lars G. Svensson, DNB). Der abschließende Vortrag von Magda Heiner-Freiling (DNB) ging dann wieder ins Programmatische mit dem Vorschlag, eine gemeinsame European DDC Users Group (EDUG) zu gründen, um gemeinsame Anliegen der europäischen Dewey-User, was z.B. die anfangs erwähnten Probleme in einzelnen Bereichen betrifft, gemeinsam gegenüber den amerikanischen Herausgebern zu vertreten, um so mehr Einfluss auf die künftige Entwicklung der DDC zu haben.
    Wer sich näher für einzelne Themen interessiert, hat die Möglichkeit, auf der Homepage der Schweizer Nationalbibliothek die Präsentationsunterlagen der einzelnen Vorträge einzusehen (http://www.nb.admin.ch/slb/slb_professionnel/projektarbeit/00729/01615/01675/index.html?lang=de). Ziel des zweiten Tages war die Gründung einer europäischen DDC-Anwendergruppe zum Zweck der Vernetzung und Planung für die gemeinsame Entwicklungsarbeit. Anwesend waren Vertreterinnen der Nationalbibliotheken von Großbritannien, Deutschland, Frankreich, Schweden, Norwegen, Italien, Schweiz und Österreich sowie eine Vertreterin von OCLC. Eingeladen hatten die Nationalbibliotheken von Deutschland und der Schweiz. Vormittags wurde eine allgemeine Diskussion über die Ziele und Möglichkeiten einer solchen Anwendergruppe sowie allgemein über die Vorteile einer DDC-Anwendung in Europa diskutiert. Ziele von EDUG könnten sein: - Monitoring der europäischen DDC-Anwendungen - Kenntnis der unterschiedlichen Anwendungsregeln in den verschiedenen Ländern - Zugang auch zu den DDC-Übersetzungen in anderen Sprachen samt Expansionen - Zusammenarbeit beim Angebot von "built numbers" Zusammenarbeit mit OCLC als Vertreterin von europäischen Anliegen (die am Vortag ausführlich angesprochen worden waren) - Harmonisierung der Änderungen in den verschiedensprachigen Ausgaben (21./22. Ed., unterschiedliche Erweiterungen, anderer Sprachgebrauch) - Kooperation bei der Realisierung von technischen Plänen wie z.B. die automatische Klassifikation von Online-Dokumenten oder dem Mapping zu anderen Klassifikationssystemen - Weitergabe von Know-how und Erfahrungen an andere Interessierte Spontan wurden drei Arbeitsgruppen ins Leben gerufen, und zwar eine für technische Angelegenheiten und zwei inhaltliche für die kritischen Bereiche Recht und Erziehung. Nachmittags wurden die Satzungen von EDUG diskutiert und überarbeitet. Bei vielen Punkten wurde Übereinkunft erzielt. Einzelne Fragen blieben noch offen und sollen beim nächsten Treffen - wahrscheinlich im April 2008 in Frankfurt - endgültig fixiert werden."
  18. Czap, H.: Einführung in Wissensorganisation und Case-Based Reasoning (1996) 0.04
    0.037333336 = product of:
      0.07466667 = sum of:
        0.07466667 = product of:
          0.14933334 = sum of:
            0.14933334 = weight(_text_:d.h in 186) [ClassicSimilarity], result of:
              0.14933334 = score(doc=186,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.5454829 = fieldWeight in 186, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0625 = fieldNorm(doc=186)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    CBR ist eng gekoppelt mit Lernen, verstanden als Anreicherung von Wissen. Wissen wird unterteilt in Faktenwissen und Handhabungs-/Orientierungswissen. Letzteres verfügbar zu haben wird als primäres Ziel von Lernen und damit auch von CBR herausgearbeitet. Die Übertragbarkeitsproblematik, d.h. die Nutzung von gespeichertem Erfahrungswissen (alte Fälle und ihre Lösungen) zur Lösung neuer Problemstellungen wird an einem eingängigen Beispiel (Dunckers Bestrahlungsproblem illustriert). Abschließend wird der CBR-Zyklus kurz vorgestellt
  19. Panyr, J.: Vektorraum-Modell und Clusteranalyse in Information-Retrieval-Systemen (1987) 0.04
    0.037333336 = product of:
      0.07466667 = sum of:
        0.07466667 = product of:
          0.14933334 = sum of:
            0.14933334 = weight(_text_:d.h in 2322) [ClassicSimilarity], result of:
              0.14933334 = score(doc=2322,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.5454829 = fieldWeight in 2322, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2322)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Ausgehend von theoretischen Indexierungsansätzen wird das klassische Vektorraum-Modell für automatische Indexierung (mit dem Trennschärfen-Modell) erläutert. Das Clustering in Information-Retrieval-Systemem wird als eine natürliche logische Folge aus diesem Modell aufgefaßt und in allen seinen Ausprägungen (d.h. als Dokumenten-, Term- oder Dokumenten- und Termklassifikation) behandelt. Anschließend werden die Suchstrategien in vorklassifizierten Dokumentenbeständen (Clustersuche) detailliert beschrieben. Zum Schluß wird noch die sinnvolle Anwendung der Clusteranalyse in Information-Retrieval-Systemen kurz diskutiert
  20. Wingert, B.: Äußerer und innerer Hypertext : eine notwendige Differenzierung, verdeutlicht am Flusser-Hypertext (1993) 0.04
    0.037333336 = product of:
      0.07466667 = sum of:
        0.07466667 = product of:
          0.14933334 = sum of:
            0.14933334 = weight(_text_:d.h in 2937) [ClassicSimilarity], result of:
              0.14933334 = score(doc=2937,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.5454829 = fieldWeight in 2937, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2937)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Einen Großteil der mit Hypertexte verbundenen Programmatik könnte man als das 'Externalisierungs-Postulat' bezeichnen, d.h. die Erwartung, daß es besser sei, implizite Bezüge und Verweise in einem Text (oder komplexerem Material) explizit als 'links' zu verdeutlichen und sie damit dem Leser als weiteren, fortführenden oder konterkarierenden Stoff anzubieten. Am Beispiel des 'Flusser-Hypertextes', einer Entwicklung des 'Projekts Elektronisches Buch (PEB)', wird zunächst gezeigt, zu welcher Unübersichtlichkeit die Explizierung aller textlich angelegten Verweise führen würde. Danach wird die Problematik impliziter Verweise betrachtet

Types

  • el 41
  • b 3
  • More… Less…

Themes