Search (1411 results, page 1 of 71)

  • × year_i:[2000 TO 2010}
  1. Ackermann, E.: Piaget's constructivism, Papert's constructionism : what's the difference? (2001) 0.11
    0.11284815 = product of:
      0.2256963 = sum of:
        0.2256963 = product of:
          0.4513926 = sum of:
            0.17613779 = weight(_text_:3a in 692) [ClassicSimilarity], result of:
              0.17613779 = score(doc=692,freq=2.0), product of:
                0.37608284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.044359796 = queryNorm
                0.46834838 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
            0.27525482 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.27525482 = score(doc=692,freq=2.0), product of:
                0.47013733 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.044359796 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(2/4)
      0.5 = coord(1/2)
    
    Content
    Vgl.: https://www.semanticscholar.org/paper/Piaget-%E2%80%99-s-Constructivism-%2C-Papert-%E2%80%99-s-%3A-What-%E2%80%99-s-Ackermann/89cbcc1e740a4591443ff4765a6ae8df0fdf5554. Darunter weitere Hinweise auf verwandte Beiträge. Auch unter: Learning Group Publication 5(2001) no.3, S.438.
  2. Hastik, C.; Schuster, A.; Knauerhase, A.: Wissenschaftliche Suchmaschinen : Usability Evaluation und Betrachtung des Suchverhaltens potentieller Nutzer (2009) 0.09
    0.08636883 = product of:
      0.17273766 = sum of:
        0.17273766 = sum of:
          0.13066667 = weight(_text_:d.h in 2768) [ClassicSimilarity], result of:
            0.13066667 = score(doc=2768,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.4772975 = fieldWeight in 2768, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2768)
          0.04207098 = weight(_text_:22 in 2768) [ClassicSimilarity], result of:
            0.04207098 = score(doc=2768,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.2708308 = fieldWeight in 2768, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2768)
      0.5 = coord(1/2)
    
    Abstract
    Wissenschaftliche Suchmaschinen haben es nicht leicht in einer "Amazoogle" gestalteten Welt. Dabei ist nicht nur die Einfachheit der Benutzerschnittstelle d.h. die Umsetzung von Usability-Anforderungen entscheidend für den Erfolg, sondern ebenso die Qualität der Suchergebnisse. Im Rahmen des Masterprojektes "Wissenschaftliche Suchmaschinen" an der Hochschule Darmstadt werden benutzerspezifische Bedürfnisse, Anforderungen und Aspekte der Wahrnehmung in Relation zum individuellen Informationssuchverhalten aufgerollt und methodisch evaluiert. Es wird der Fragestellung nachgegangen, was die Informationssuche auszeichnet und welche Rolle die Informationskompetenz der Nutzer in diesem Rahmen spielt. Anschließend werden die Ergebnisse detailliert skizziert, analysiert und daraus Rückschlüsse auf die zielgruppenspezifischen Anforderungen und Bedürfnisse hinsichtlich der Gestaltung von wissenschaftlichen Suchmaschinen gezogen.
    Date
    23. 3.2009 14:49:22
  3. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.08
    0.08383905 = sum of:
      0.068813704 = product of:
        0.27525482 = sum of:
          0.27525482 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
            0.27525482 = score(doc=193,freq=2.0), product of:
              0.47013733 = queryWeight, product of:
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.044359796 = queryNorm
              0.5854775 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.25 = coord(1/4)
      0.01502535 = product of:
        0.0300507 = sum of:
          0.0300507 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
            0.0300507 = score(doc=193,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 193, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=193)
        0.5 = coord(1/2)
    
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  4. Sonnenwald, D.H.: Scientific collaboration (2007) 0.07
    0.07466667 = product of:
      0.14933334 = sum of:
        0.14933334 = product of:
          0.2986667 = sum of:
            0.2986667 = weight(_text_:d.h in 3179) [ClassicSimilarity], result of:
              0.2986667 = score(doc=3179,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                1.0909657 = fieldWeight in 3179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.125 = fieldNorm(doc=3179)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  5. Lee, S.-S.; Theng, Y.-L.; Goh, D.H.-L.: Creative information seeking : part II: empirical verification (2007) 0.07
    0.07403042 = product of:
      0.14806084 = sum of:
        0.14806084 = sum of:
          0.112 = weight(_text_:d.h in 813) [ClassicSimilarity], result of:
            0.112 = score(doc=813,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.40911216 = fieldWeight in 813, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.046875 = fieldNorm(doc=813)
          0.03606084 = weight(_text_:22 in 813) [ClassicSimilarity], result of:
            0.03606084 = score(doc=813,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.23214069 = fieldWeight in 813, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=813)
      0.5 = coord(1/2)
    
    Date
    23.12.2007 12:22:16
  6. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.07
    0.070871755 = sum of:
      0.052841336 = product of:
        0.21136534 = sum of:
          0.21136534 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
            0.21136534 = score(doc=562,freq=2.0), product of:
              0.37608284 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.044359796 = queryNorm
              0.56201804 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.25 = coord(1/4)
      0.01803042 = product of:
        0.03606084 = sum of:
          0.03606084 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
            0.03606084 = score(doc=562,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.23214069 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.5 = coord(1/2)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  7. Sonnenwald, D.H.; Whitton, M.C.; Maglaughlin, K.L.: Scientific collaboratories : evaluating their potential (2002) 0.07
    0.06533334 = product of:
      0.13066667 = sum of:
        0.13066667 = product of:
          0.26133335 = sum of:
            0.26133335 = weight(_text_:d.h in 4991) [ClassicSimilarity], result of:
              0.26133335 = score(doc=4991,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.954595 = fieldWeight in 4991, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4991)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  8. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.06
    0.061692018 = product of:
      0.123384036 = sum of:
        0.123384036 = sum of:
          0.093333334 = weight(_text_:d.h in 5773) [ClassicSimilarity], result of:
            0.093333334 = score(doc=5773,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.3409268 = fieldWeight in 5773, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5773)
          0.0300507 = weight(_text_:22 in 5773) [ClassicSimilarity], result of:
            0.0300507 = score(doc=5773,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 5773, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5773)
      0.5 = coord(1/2)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
    Source
    Password. 2000, H.5, S.22-31
  9. Ball, R.: Wissenschaftsindikatoren im Zeitalter digitaler Wissenschaft (2007) 0.06
    0.061692018 = product of:
      0.123384036 = sum of:
        0.123384036 = sum of:
          0.093333334 = weight(_text_:d.h in 875) [ClassicSimilarity], result of:
            0.093333334 = score(doc=875,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.3409268 = fieldWeight in 875, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0390625 = fieldNorm(doc=875)
          0.0300507 = weight(_text_:22 in 875) [ClassicSimilarity], result of:
            0.0300507 = score(doc=875,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 875, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=875)
      0.5 = coord(1/2)
    
    Abstract
    Die Bereitstellung und Nutzung digitaler Bibliotheken entwickelt sich allmählich zum Standard der Literatur und Informationsversorgung in Wissenschaft und Forschung. Ganzen Disziplinen genügt oftmals die verfügbare digitale Information, Printmedien werden besonders im STM-Segment zu einem Nischenprodukt. Digitale Texte können beliebig eingebaut, kopiert und nachgenutzt werden, die Verlinkung zwischen Metadaten und Volltexten bringt weitere Nutzungsvorteile. Dabei sind die Angebote von Digital Libraries Bestandteil eines ganzheitlichen digitalen Ansatzes, wonach die elektronische Informations- und Literaturversorgung integraler Bestandteil von E-Science (Enhanced Science) oder Cyberinfrastructure darstellt. Hierbei verschmelzen dann Produktion, Diskussion, Distribution und Rezeption der wissenschaftlichen Inhalte auf einer einzigen digitalen Plattform. Damit sind dann nicht nur die Literatur- und Informationsversorgung (Digital Libraries), sondern auch die Wissenschaft selbst digital geworden. Diese dramatische Veränderung in der Wissenschaftskommunikation hat direkte Auswirkungen auf die Messung der Wissenschaftskommunikation, also auf die Evaluation von wissenschaftlichem Output. Bisherige Systeme der Wissenschaftsvermessung basieren hauptsächlich auf bibliometrischen Analysen, d.h. der Quantifizierung des Outputs und dessen Rezeption (Zitierhäufigkeit). Basis dafür sind insbesondere im STM-Bereich die international anerkannten Datenbanken des ISI (Thomson Scientific) insbesondere der Science Citation Index, SCI) oder vielleicht zukünftig das Konkurrenzprodukt SCOPUS des Wissenschaftskonzerns Reed Elsevier. Die Digitalisierung der Wissenschaft in ihrem kompletten Lebenszyklus, die zunehmende Nutzung und Akzeptanz von Dokumentenrepositorien, Institutsservern und anderen elektronischen Publikationsformen im Rahmen von E-Science erfordern und ermöglichen zugleich den Nachweis von Output und Rezeption durch neue bibliometrische Formen, etwa der Webometrie (Webmetrics). Im vorliegenden Paper haben wir hierzu Analysen durchgeführt und stellen eine Abschätzung vor, wie sich der Anteil von webometrisch erfassbarer und zugänglicher wissenschaftlicher Literatur im Vergleich zu Literatur, die mit den Standardsystemen nachgewiesen werden kann im Laufe der letzten Jahre verändert hat. Dabei haben wir unterschiedliche Disziplinen und Länder berücksichtigt. Zudem wird ein Vergleich der webometrischen Nachweisqualität so unterschiedlicher Systeme wie SCI, SCOPUS und Google Scholar vorgestellt.
    Date
    23.12.2007 19:22:21
  10. Klauß, H.: Pilotmigration UB des BIZ der Europa-Universität Viadrina - Frankfurt (Oder) in den BVB (2009) 0.06
    0.061692018 = product of:
      0.123384036 = sum of:
        0.123384036 = sum of:
          0.093333334 = weight(_text_:d.h in 3282) [ClassicSimilarity], result of:
            0.093333334 = score(doc=3282,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.3409268 = fieldWeight in 3282, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3282)
          0.0300507 = weight(_text_:22 in 3282) [ClassicSimilarity], result of:
            0.0300507 = score(doc=3282,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 3282, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3282)
      0.5 = coord(1/2)
    
    Abstract
    Ende 2007 wurde die "Vereinbarung zur Strategischen Allianz zwischen dem Bibliotheksverbund Bayern (BVB) und dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV)" beschlossen). Infolgedessen werden die Kataloge von vielen Bibliotheken aus Berlin und Brandenburg zusammengeführt. Die beteiligten Bibliotheken sind teils SISIS-, teils Aleph-Bibliotheken. Die UB des Bibliotheks- und Informationszentrum (BIZ) Frankfurt (Oder) hat für die SISIS-Bibliotheken die Pilotierung übernommen. Es soll im Folgenden nicht das Verfahren der Beschlussfassung in dieser Sache thematisiert werden, sondern es sollen einige Anmerkungen gemacht werden zur Berlin-Brandenburgischen Bibliotheksgeschichte bzgl. Verbundkatalogisierung und lokal autonomer Katalogisierung im Hinblick auf die Allianz sowie gewisse Rahmenbedingungen und einiger Details der Migration bei uns. Im Jahr 1994 trat das Land Brandenburg dem "Bibliotheksverbund Berlin-Brandenburg" (BVBB), davor "Berliner Bibliotheksverbund", BBV), (ehem. "Berliner Monographienverbund" bei. Dieser Anschluss lief für die UB der EUV so: Es wurden keine bestehenden Titelaufnahmen, d.h. keine alten Bestände, in den BVBB-Katalog gemeldet, sondern nur neue. Um Doppelarbeit zu vermeiden und die Titelaufnahmen sofort im Katalog zu haben, haben wir in Frankfurt (Oder) Titelaufnahmen mit der sog. Softcopy in den Lokalkatalog eingearbeitet. Es ging bei dieser Migration deshalb nicht um die vollständige Übernahme der Titelaufnahmen der UB der EUV, sondern "nur" um die Übernahme der neu erstellten Titelaufnahmen. Es gab daher in unserem Katalog damals zugleich BVBB- und nicht-BVBB-gestützte Titelaufnahmen.
    Date
    22. 2.2009 20:38:30
  11. Elazar, D.H.: ¬The making of a classification scheme for libraries of Judaica (2000) 0.06
    0.056 = product of:
      0.112 = sum of:
        0.112 = product of:
          0.224 = sum of:
            0.224 = weight(_text_:d.h in 5400) [ClassicSimilarity], result of:
              0.224 = score(doc=5400,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.8182243 = fieldWeight in 5400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5400)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  12. Schramm, R.: Patentinformation (2004) 0.05
    0.049353614 = product of:
      0.09870723 = sum of:
        0.09870723 = sum of:
          0.07466667 = weight(_text_:d.h in 2955) [ClassicSimilarity], result of:
            0.07466667 = score(doc=2955,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.27274144 = fieldWeight in 2955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.03125 = fieldNorm(doc=2955)
          0.02404056 = weight(_text_:22 in 2955) [ClassicSimilarity], result of:
            0.02404056 = score(doc=2955,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.15476047 = fieldWeight in 2955, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2955)
      0.5 = coord(1/2)
    
    Abstract
    Da nur 10 bis 30% der Erfindungen in anderen Quellen als in Patentschriften beschrieben werden, ist die Patentinformation für die Kenntnis des Weltstandes der Technik und seiner wirtschaftlichen Verwertungsbedingungen unersetzlich. Die aktuelle und vollständige Information über den Stand der Technik verdanken Wissenschaft, Technik und Wirtschaft dem Grundprinzip des Patentwesens: Das Patentwesen verhindert die Geheimhaltung technischen Wissens, indem es den Erfinder und Patentinhaber für die Preisgabe der Information rechtlich schützt, d.h. es verknüpft Technik und Recht aufwirtschaftsstimulierende Weise. Der daraus resultierende Doppelcharakter einer Patentschrift als Technik- und Rechtsdokument ist keine lästige Erschwernis, sondern ein zu nutzender Vorzug. Noch führt die ungenügende Kenntnis der Patentinformation zu unnötiger Doppelforschung und zu zurückgewiesenen Patentanmeldungen. Ein Drittel der Forschung und der Patentanmeldungen erfolgt nutzlos. Die Patentinformation kann - gestützt auf Patentdatenbanken und Volltextarchive in weltweiten und lokalen Informationsnetzen - einen wachsenden Beitrag an der Entwicklung und Markteinführung innovativer Produkte und Verfahren leisten.
    Date
    5. 4.2013 10:22:32
  13. Thomas, D.H.: ¬The effect of interface design on item selection in an online catalog (2001) 0.05
    0.049353614 = product of:
      0.09870723 = sum of:
        0.09870723 = sum of:
          0.07466667 = weight(_text_:d.h in 168) [ClassicSimilarity], result of:
            0.07466667 = score(doc=168,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.27274144 = fieldWeight in 168, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.03125 = fieldNorm(doc=168)
          0.02404056 = weight(_text_:22 in 168) [ClassicSimilarity], result of:
            0.02404056 = score(doc=168,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.15476047 = fieldWeight in 168, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=168)
      0.5 = coord(1/2)
    
    Date
    10. 9.2000 17:38:22
  14. Dewey-Dezimalklassifikation : DDC 22 (2005) 0.05
    0.04802367 = product of:
      0.09604734 = sum of:
        0.09604734 = sum of:
          0.06599664 = weight(_text_:d.h in 302) [ClassicSimilarity], result of:
            0.06599664 = score(doc=302,freq=4.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.24107166 = fieldWeight in 302, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.01953125 = fieldNorm(doc=302)
          0.0300507 = weight(_text_:22 in 302) [ClassicSimilarity], result of:
            0.0300507 = score(doc=302,freq=8.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.19345059 = fieldWeight in 302, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=302)
      0.5 = coord(1/2)
    
    Content
    Zum ersten Mal liegt die Dewey Decimal Classification (DDC) auf Deutsch vor. Die Deutsche Bibliothek und die Fachhochschule Köln haben im Rahmen eines von der Deutschen Forschungsgemeinschaft finanzierten Projekts die 2003 erschienene Standard Edition der DDC 22 übersetzt und damit die Grundlage für die Nutzung der DDC im deutschsprachigen Raum geschaffen. In vier Bänden verzeichnet die DDC in etwa 60.000 Hauptklassen das gesamte Weltwissen in einer hierarchisch gegliederten Form, ergänzt durch umfangreiche Hilfstafeln für alle geografischen, ethnografischen und sprachlichen Einheiten und ein alphabetisches Register mit etwa 80.000 Einträgen.
    Footnote
    Rez. in: Informationsmittel für Bibliotheken (Online-Ausgabe) 06-2-176 (H. Wiesenmüller): "Die erste Version der Dewey Decimal Classification (DDC) erschien 1876 - bis zur ersten deutschen Ausgabe hat es mithin fast 130 Jahre gedauert, obwohl die DDC schon in mehr als 30 Sprachen vorliegt. Dies zeigt deutlich, wie gering das Interesse an dieser Klassifikation im deutschsprachigen Raum noch bis vor kurzem gewesen ist. Kein Wunder, wurde doch der DDC - häufig sehr pauschal - eine rein amerikanische Weltsicht und ein antiquiertes Wissenschaftsbild unterstellt. Nichtsdestoweniger war der Einsatz einer deutschen DDC bereits 1998 von der Expertengruppe Klassifikation empfohlen worden. Eine Machbarkeitsstudie aus dem Jahr 2000 unterstützte diese Beurteilung und machte konkrete Vorgaben für die praktische Umsetzung. Zu den Vorteilen der DDC gehört ihre weltweite Verbreitung (wobei einschränkend zu sagen ist, daß die meisten 'academic libraries' in den USA nicht die DDC, sondern die Library of Congress Classification anwenden) sowie ihre kontinuierliche Pflege und dadurch verhältnismäßig hohe Aktualität, die sich freilich i.d.R. erst auf den tieferen Ebenen zeigt. In jüngerer Zeit hat sie außerdem große Bedeutung bei der sachlichen Erschließung von Online-Ressourcen gewonnen und wird von vielen Dokumentenservern und Fachportalen zumindest für ein grobes Klassifizieren eingesetzt. Die seit Oktober 2005 vorliegende deutsche Übersetzung der 22. Standard Edition von 2003 ist das Ergebnis eines an der Fachhochschule Köln und der Deutschen Nationalbibliothek (DNB) angesiedelten und von der Deutschen Forschungsgemeinschaft (DFG) finanzierten Projekts (Laufzeit: 2002-2005). Das Projekt wurde von einer vom Standardisierungsausschuß eingesetzten Expertengruppe begleitet; über das Konsortium DDC Deutsch waren außerdem mehrere deutsche Bibliotheksverbünde sowie der Österreichische Bibliothekenverbund und die Schweizerische Landesbibliothek eingebunden.
    Die hier anzuzeigende Druckausgabe wurde mit Hilfe eines speziell dafür entwickelten, datenbankgestützten Editionssystems erstellt. Parallel wurde ein Online-Dienst ('Melvil') aufgebaut, der im Vergleich zur Printversion mancherlei Vorteile besitzt. So wird Melvil halbjährlich aktualisiert und erweitert: Dabei werden nicht nur die amerikanischen Ergänzungslieferungen eingespielt, sondern auch synthetische, d.h. 'zusammengebaute' Notationen aus der praktischen Anwendung der DNB. Auch die Suchfunktionalitäten gehen deutlich über die Möglichkeiten der Druckausgabe hinaus - nicht zuletzt auf Grund einer sukzessiven Anreicherung mit Suchbegriffen aus der Schlagwortnormdatei (SWD) im Rahmen eines weiteren DFG-Projekts ('CrissCross'). So könnte man sich durchaus fragen, warum überhaupt eine Druckausgabe produziert wurde. Diese hat jedoch den unschätzbaren Vorteil, mit einer einmaligen Zahlung (wenn auch eines stattlichen Preises!) abgegolten zu sein, während für die Nutzung von Melvil jährliche Lizenzgebühren anfallen. Trotz ihres Umfangs von zusammen über 4000 Seiten sind die vier Bände vom Gewicht her erfreulich leicht ausgefallen. Das sehr dünne Papier hat allerdings den Nachteil, daß der Text der Rückseite deutlich durchschlägt. Als ausgesprochen gelungen empfand die Rezensentin die Umschlaggestaltung, bei der das klassische Dunkelgrün der DDC-Ausgaben mit dem bekannten (um nicht zu sagen: berüchtigten) Orange des Saur-Verlags kombiniert wurde. Der erste Band enthält - neben verschiedenen Vorworten und Begleittexten - eine kurz gefaßte Einführung in die DDC (im Original: Introduction to Dewey Decimal Classification; im Deutschen etwas unglücklich wiedergegeben als Einleitung in die Dewey-Dezimalklassifikation), die Praxishilfe und die Hilfstafeln. In der Praxishilfe (im Original: Manual) werden schwierige Fälle erläutert, z.B. die Abgrenzung inhaltlich eng verwandter Klassen. Obwohl die Praxishilfe für die 22. Auflage komplett überarbeitet wurde, ist der Text noch immer recht schwer zu lesen. In der deutschen Fassung ergeben sich dabei z.T. komplizierte Schachtelsätze, die sich über fünf oder gar sechs Zeilen erstrecken.3 Die Haupttafeln finden sich im zweiten und dritten Band, das Register im abschließenden vierten Band.
    Wer die deutsche DDC das erste Mal in die Hand nimmt, wird vielleicht überrascht sein vom hohen Grad der Übereinstimmung mit dem amerikanischen Vorbild. Dies zeigt sich nicht nur im identischen Aufbau, sondern auch im bis ins kleinste Detail kopierten Layout. Dazu muß man wissen, daß OCLC als Copyright-Inhaber für Übersetzungen der DDC äußerst strenge Vorgaben macht und deren Einhaltung genauestens kontrolliert. Das Projektteam arbeitete daher in einem sehr engen 'Korsett' und besaß nur wenig Spielraum für Anpassungen an deutsche Gepflogenheiten und das Setzen eigener Akzente. Die gewaltige Übersetzungsleistung, die im Laufe des Projekts erbracht wurde, zerfällt in zwei Bereiche: Zum einen mußten die Klassenbenennungen und Registerbegriffe übertragen werden, zum anderen die Erläuterungen und Anweisungen (sozusagen die 'Metatexte'). Beim ersten Teil der Aufgabe wurde das Team von ca. 70 Fachreferenten unterstützt, wobei man sich bemüht hat, jedes Fach doppelt zu besetzen. Durch dieses Verfahren ist eine ausgesprochen gute Qualität gewährleistet. Wieviel Arbeit in diesem Bereich geleistet wurde, läßt sich schon erahnen, wenn man nur die obersten 1000 Klassen der DDC (d.h. die ersten drei Ebenen) betrachtet: Diese wurden 2003 erstmals in deutscher Fassung herausgegeben. In der zweiten Auflage der kleinen Broschüre, die zum Ende des Übersetzungsprojekts erschien, waren in mehr als der Hälfte der Fälle die Klassenbenennungen geändert worden!
  15. Hehl, H.: ¬Die Linksysteme des Multisuchsystems E-Connect : Aufsatzrecherche mit Zugang zum Volltext und zu Verbundkatalogen (2003) 0.04
    0.043184415 = product of:
      0.08636883 = sum of:
        0.08636883 = sum of:
          0.06533334 = weight(_text_:d.h in 1688) [ClassicSimilarity], result of:
            0.06533334 = score(doc=1688,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.23864876 = fieldWeight in 1688, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1688)
          0.02103549 = weight(_text_:22 in 1688) [ClassicSimilarity], result of:
            0.02103549 = score(doc=1688,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.1354154 = fieldWeight in 1688, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1688)
      0.5 = coord(1/2)
    
    Abstract
    Die Hyperlinktechnologie des WWW wird von immer mehr bibliographischen Datenbanken genützt, um eine schnelle und umfassende Information und vor allem einen unmittelbaren Zugang zu den Informationsdokumenten wie Aufsätzen, Reports usw. anzubieten. Die Rechercheergebnisse einer webbasierten Datenbank sind dementsprechend oft mit einer ganzen Reihe von Hyperlinks ausgestattet. So gibt es in vielen Datenbanken Hyperlinks, die zu den Standortnachweisen von Zeitschriften in einem Verbundkatalog oder evtl. zur elektronischen Version einer Zeitschrift, d.h. zu deren Homepage, hinführen. In manchen Datenbanken führen Hyperlinks auch unmittelbar zum Volltext des einzelnen Artikels hin. Bei dieser mit dem englischen Fachausdruck Reference Linking bezeichneten bibliographischen Verknüpfungstechnik entsteht das Problem, wie ein auf einer Webseite zitierter oder von einer Datenbank als Treffer angezeigter Aufsatz so mit einer URL verbunden werden kann, dass als Ziel des Hyperlinks z.B. die entsprechende elektronische Version angesteuert oder der Bestandsnachweis der angegebenen Zeitschrift in einem Online-Katalog ermittelt wird. Eine akzeptable Lösung des Problems wäre eine standardisierte und frei zugängliche Art der URL-Adresse, ein sogen. OpenURL, der universell einsetzbar ist. Datenbanken, in denen diese Verknüpfungen bereits integriert sind, verwenden vielfach den DOI oder andere Metadaten in ihren Hyperlinkadressen. Der wesentliche Unterschied zwischen DOI und OpenURL besteht darin, dass die Daten für den DOI intern von den Datenbankanbietern vergeben werden, während die Daten für den OpenURL aus jedem einfachen Zitat genommen werden können. Daher ist der OpenURL leicht verwendbar und verknüpfbar, während die Verwendung des DOI in Verknüpfungssystemen davon abhängig ist, ob in dem Originaldokument bzw. der originalen Trefferanzeige ein solcher DOI auch angezeigt wird, was nicht immer der Fall ist. Selbst wenn in kommerziellen Datenbanken eine Verknüpfung mit elektronischen Zeitschriften integriert ist, zeigen diese meist keine Limitierung auf einen lokal verfügbaren Bestand an, so dass eine etwa vorhandene Zugänglichkeit auf Grund einer Subskription nicht erkennbar ist und die Verknüpfung oft ins Leere geht. Zudem führt ein Hyperlink oft nur dann auf den für eine Bibliothek verfügbaren Volltext, wenn die betreffende Zeitschrift beim Datenbankanbieter registriert ist. Die Linksysteme des Multisuchsystems E-Connect sind so konzipiert, dass sie durch ein vorangehendes Suchverfahren in einer Bestandsliste einen tatsächlichen (nicht bloß potentiellen!) Verfügbarkeitsnachweis für eine bestimmte Bibliothek herstellen. Dadurch ist sofort ein Überblick über evtl. zugängliche Volltexte vorhanden. Durch ein speziell von mir entwickeltes Verknüpfungsverfahren über die OpenURLs bzw. die Suchsysteme der Verlage und Gesellschaften ist außerdem der direkte Zugang zum Volltext möglich, unabhängig von einer etwaigen Registrierung und unabhängig davon, ob überhaupt in der Datenbank eine Verbindung zur betreffenden Zeitschrift besteht. Von dem Zugang zum Volltext abgesehen ist außerdem eine Verbindung eines angezeigten Treffers mit Verbundkatalogen wünschenswert, was von Datenbanken bisher nur wenig, von diesen Linksystemen aber durchweg realisiert wird. Das ist insofern wichtig, als es für viele Zeitschriften entweder überhaupt keine E-Version gibt oder keine Subskription vorliegt, so dass man auf die Printversion zurückgreifen muß. Bei einer Verbindung zum OPAC besteht außerdem auch vielfach die Möglichkeit einer Online-Bestellung, wodurch das Bestellverfahren beschleunigt und vereinfacht wird.
    Date
    22. 6.2003 12:20:08
  16. Manecke, H.-J.: Klassifikation, Klassieren (2004) 0.04
    0.041739937 = product of:
      0.083479874 = sum of:
        0.083479874 = product of:
          0.16695975 = sum of:
            0.16695975 = weight(_text_:d.h in 2902) [ClassicSimilarity], result of:
              0.16695975 = score(doc=2902,freq=10.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.6098684 = fieldWeight in 2902, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2902)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Unter Klassifikation wird ganz allgemein eine Gruppierung oder Einteilung des gesamten Wissens, der Wissenschaft und ihrer Disziplinen nach einheitlichen methodischen Prinzipien verstanden. Die Elemente (Bestandteile) der Klassifikationen werden als Klassen bezeichnet. Bei der Verwendung des Begriffs "Klassifikation" ist zu unterscheiden zwischen - dem Prozess der Klassifikationserarbeitung (d.h. der Klassenbildung); - dem Klassifikationssystem als Ergebnis des Klassenbildungsprozesses; - dem Prozess des Klassierens bzw des Klassifizierens, d.h. dem gegenseitigen Zuordnen von Objekten und Klassen des Klassifikationssystems. Dieses Zuordnen erfolgt auf der Grundlage mindestens eines gemeinsamen klassifikatorischen Merkmals (Klassern), das den einzelnen Objekten einer bestimmten Klasse eigen ist und sie von Objekten anderer Klassen unterscheidet. Gleichartige Objekte bzw. Sachverhalte, d.h. diejenigen, die mindestens ein identisches Merkmal haben, werden in einer Klasse zusammengefasst. Eine derartige Objektklassifikation ist Grundlage beispielsweise der Faktendokumentation, bei der Daten über Objekte, Sachverhalte etc. direkt gespeichert und abgefragt werden können. Ein Klassifikationssystem ist insgesamt das Ergebnis eines schrittweisen Strukturierungsprozesses, bei dem jeder Klasse in dem System ein bestimmter Platz zugeteilt wird. So erfüllen die Klassifikationen vor allem eine Ordnungsfunktion (Gleiches zu Gleichem), die ganz offensichtlich einem Grundbedürfnis des Menschen entspricht. Bereits in den Ländern des alten Orients und in der antiken Welt gab es Klassifikationen. Hinter jeder Klasse verbirgt sich ein dreistufiger Abstraktionsprozess, d.h. zunächst die Abstraktion vom Objekt bzw. Sachverhalt einer Klasse zum Begriff, der die Merkmale bestimmt, die diese Klasse von einer anderen unterscheidet. Dieser Begriff ist dann in einer nächsten Abstraktionsstufe durch eine äquivalente Bezeichnung auszudrücken. In diesem Abschnitt stehen Klassifikationssysteme für die Referenzdokumentation, d.h. ihr Einsatz als Dokumentationssprache bei der Erarbeitung von Referenzbeschreibungen für Wissensquellen, im Vordergrund. Sie zählen zu den am weitesten verbreiteten Dokumentationssprachen und zeichnen sich durch die ihnen innewohnende Systematik aus. Ein derartiges Klassifikationssystem ist eine strukturierte Zusammenstellung von Begriffen (Begriffssystematik), in der die Beziehungen zwischen den Begriffen (meist Ober- und Unterordnung) durch systemabbildende und von natürlichen Sprachen unabhängige Bezeichnungen (Notationen) dargestellt sind. Eine Notation ist demnach eine nach bestimmten Regeln gebildete Zeichenfolge, die eine Klasse (Systemstelle) repräsentiert und deren Stellung im systematischen Zusammenhang abbildet. Diese Notationen werden bei der Inhaltserschließung als inhaltskennzeichnende Merkmale (Indexterms) vergeben und sind somit Grundlage für das Speichern und Wiederauffinden. Hauptfunktion von Klassifikationen dieser Art ist also das Ordnen der Sachverhalte und Aussagen (der Essenz), die bei der Analyse von Publikationen und anderer Wissensquellen als wesentlich erkannt und mit Hilfe von Notationen repräsentiert worden sind. Die Erläuterung der nachfolgenden Grundlagen bezieht sich vor allem auf die Verwendung von Klassifikationen als Begriffsystematik. Sie gelten aber auch in analoger Weise für die o.a. Objektklassifikation, beispielsweise für die International Classification of Diseases (ICD). Sie dient weltweit für die Verschlüsselung von Diagnosen. Ausführlichere Erläuterungen enthält ein kürzlich zum Selbststudium entwickeltes einführendes Lehrbuch zum Thema Wissensorganisation.
  17. Kleiber, K.; Lindpointner, R.: DDC in Europa : Workshop "The use of the Dewey Decimal Classification (DDC) in Europe: recent developments and future perspectives" und "Meeting of the European DDC users' group" (2007) 0.04
    0.040749434 = product of:
      0.08149887 = sum of:
        0.08149887 = sum of:
          0.056 = weight(_text_:d.h in 1286) [ClassicSimilarity], result of:
            0.056 = score(doc=1286,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.20455608 = fieldWeight in 1286, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1286)
          0.025498865 = weight(_text_:22 in 1286) [ClassicSimilarity], result of:
            0.025498865 = score(doc=1286,freq=4.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.16414827 = fieldWeight in 1286, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1286)
      0.5 = coord(1/2)
    
    Content
    Der dann folgende Vortrag von Joan Mitchell mit dem programmatischen Titel "Locality and universality in the DDC" gab zuerst einen Überblick über die laufenden Übersetzungsprojekte, bezogen auf die Ed. 22, nämlich: Französisch, Italienisch, Spanisch, Griechisch, Arabisch und Chinesisch. Bezogen auf die Abridged Ed. 14 außerdem: Hebräisch und Vietnamesisch. Sie erwähnte auch den Einsatz von Dewey bei internationalen Projekten wie der "World Digital Library". Der zentrale Punkt des Vortrags betraf dann den Spagat zwischen ,Localization and Interoperability', d.h. zwischen Anpassung an regionale Gegebenheiten (wie z.B. Unterschiede in den Bereichen des Rechts- und Erziehungssystems) auf der einen Seite und Festhalten an der Durchgängigkeit der Bedeutung über alle Sprachen und Kulturen hinweg. Wie auch Magda Heiner-Freiling in ihrem Vortrag hinwies, hat sich die amerikanisch geprägte DDC im Zuge der Übersetzungsprojekte zwar schrittweise den Bedürfnissen der Benutzer in anderen Erdteilen geöffnet, dennoch bestehen noch zahlreiche Schwierigkeiten. Das von Heiner-Freiling erwähnte Beispiel der Pädagogik zeigte aber auch, dass Vorsicht bei Alleingängen auf nationaler Ebene geboten ist, da z.B. im Zuge des Bologna-Prozesses auch in Europa amerikanische institutionelle Strukturen und Terminologie im Bildungswesen Einzug halten. Weitere Vorträge befassten sich mit der Arbeit an elektronischen Verfahren zur automatischen Analyse von DDC-Notationen (Ulrike Reiner aus Göttingen), mit der DDC-Übersetzungs-Software, die für die Übersetzung ins Deutsche entwickelt wurde und nun auch in allen anderen Sprachen im Einsatz ist (Peter Werling, Fa. Pansoft) bzw. mit der DDC-Suche in verschiedenen Webportalen (Lars G. Svensson, DNB). Der abschließende Vortrag von Magda Heiner-Freiling (DNB) ging dann wieder ins Programmatische mit dem Vorschlag, eine gemeinsame European DDC Users Group (EDUG) zu gründen, um gemeinsame Anliegen der europäischen Dewey-User, was z.B. die anfangs erwähnten Probleme in einzelnen Bereichen betrifft, gemeinsam gegenüber den amerikanischen Herausgebern zu vertreten, um so mehr Einfluss auf die künftige Entwicklung der DDC zu haben.
    Wer sich näher für einzelne Themen interessiert, hat die Möglichkeit, auf der Homepage der Schweizer Nationalbibliothek die Präsentationsunterlagen der einzelnen Vorträge einzusehen (http://www.nb.admin.ch/slb/slb_professionnel/projektarbeit/00729/01615/01675/index.html?lang=de). Ziel des zweiten Tages war die Gründung einer europäischen DDC-Anwendergruppe zum Zweck der Vernetzung und Planung für die gemeinsame Entwicklungsarbeit. Anwesend waren Vertreterinnen der Nationalbibliotheken von Großbritannien, Deutschland, Frankreich, Schweden, Norwegen, Italien, Schweiz und Österreich sowie eine Vertreterin von OCLC. Eingeladen hatten die Nationalbibliotheken von Deutschland und der Schweiz. Vormittags wurde eine allgemeine Diskussion über die Ziele und Möglichkeiten einer solchen Anwendergruppe sowie allgemein über die Vorteile einer DDC-Anwendung in Europa diskutiert. Ziele von EDUG könnten sein: - Monitoring der europäischen DDC-Anwendungen - Kenntnis der unterschiedlichen Anwendungsregeln in den verschiedenen Ländern - Zugang auch zu den DDC-Übersetzungen in anderen Sprachen samt Expansionen - Zusammenarbeit beim Angebot von "built numbers" Zusammenarbeit mit OCLC als Vertreterin von europäischen Anliegen (die am Vortag ausführlich angesprochen worden waren) - Harmonisierung der Änderungen in den verschiedensprachigen Ausgaben (21./22. Ed., unterschiedliche Erweiterungen, anderer Sprachgebrauch) - Kooperation bei der Realisierung von technischen Plänen wie z.B. die automatische Klassifikation von Online-Dokumenten oder dem Mapping zu anderen Klassifikationssystemen - Weitergabe von Know-how und Erfahrungen an andere Interessierte Spontan wurden drei Arbeitsgruppen ins Leben gerufen, und zwar eine für technische Angelegenheiten und zwei inhaltliche für die kritischen Bereiche Recht und Erziehung. Nachmittags wurden die Satzungen von EDUG diskutiert und überarbeitet. Bei vielen Punkten wurde Übereinkunft erzielt. Einzelne Fragen blieben noch offen und sollen beim nächsten Treffen - wahrscheinlich im April 2008 in Frankfurt - endgültig fixiert werden."
  18. Malsburg, C. von der: Gehirn und Computer (2002) 0.04
    0.037333336 = product of:
      0.07466667 = sum of:
        0.07466667 = product of:
          0.14933334 = sum of:
            0.14933334 = weight(_text_:d.h in 5127) [ClassicSimilarity], result of:
              0.14933334 = score(doc=5127,freq=8.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.5454829 = fieldWeight in 5127, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5127)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Computer ist ein Gerät, das Algorithmen ausführt, d.h. Folgen einfacher Befehle, Das Charakteristische an einem Algorithmus ist, dass all' seine qualitativen Eigenschaften im Voraus geplant und ausprobiert sind, so dass während seiner Ausführung keine Ideen benötigt werden, keine qualitativen Fragen offen sind und keine Überraschungen vorkommen. Nur quantitative Entscheidungen müssen getroffen werden (z.B. "Nimm die nächste Ziffer und addiere sie zum Ergebnis!"). Genau diese Eigenschaft hat Alan Turing dazu geführt, Algorithmen als Maschinen zu formulieren. Es gibt eine sehr klare Trennung zwischen dem qualitativen und quantitativen Aspekt eines Algorithmus: Ersterer wird vom menschlichen Geist erfunden und als Regel formuliert, letzterer hat mit den Daten zu tun, die von den Regel bearbeitet werden. Die Regeln wirken niemals auf ihre eigene Struktur zurück. Wenn man sich bei der Betrachtung auf die äußerlich sichtbare Struktur von Algorithmen beschränkt, lässt man wichtige verborgene Aspekte außer Acht: Die Semantik, die den Symbolen Substanz, Bedeutung und Interpretation verleiht und auf Grund derer entschieden werden kann, ob die Regeln und Operationen überhaupt sinnvoll sind; Theologie, d.h. Motivation, Ziele, Werte, Ästhetik und Anwendbarkeitsbetrachtungen; und Heuristik, d.h. Methoden zur Erfindung neuer Strukturen. All' diese verborgenen Aspekte sind von der expliziten Betrachtung ausgeschlossen und sind doch wesentliche Bestandteile der Strukturen, für die explizite Algorithmen nur die sichtbare Oberfläche darstellen, Wenn man sich mit Algorithmen beschäftigt, hat man die Wahl, entweder nur die expliziten Strukturen zu betrachten - ein Blickpunkt, der im Kontext der Mathematik angemessen ist - oder auch die verborgenen Aspekte zu berücksichtigen und die Situation umfassend zu behandeln. Wenn man sich mit dem Gehirn und seiner Funktion befasst, ist letzteres Vorgehen zwingend. Verschiedene Probleme erwachsen der gegenwärtig vorherrschenden Auffassung, das Gehirn könne als algorithmisch gesteuerte Maschine verstanden werden. Erstens wäre ein "Hirnalgorithmus", d.h. eine vollständige und detaillierte Beschreibung der Funktionsweise des Gehirns, prinzipiell zu kompliziert, um für Menschen handhabbar oder zur Mitteilung von Wissen über unseren Geist geeignet zu sein. Zweitens lässt die algorithmische Auffassung die Frage offen, woher der Algorithmus eigentlich komme. Die naheliegende Antwort, dass er von der Evolution entwickelt wurde, verbietet sich, weil der Algorithmus viel zu kompliziert wäre, um über die Gene von Generation zu Generation weitergegeben zu werden, und weil die Evolution keinesfalls Prozeduren entwickelt haben kann, die für so neuartige Ideen wie Mathematik oder Chemie geeignet wären. Ein drittes Problem ist, dass sich das Gehirn offensichtlich selbst modifiziert, wenn es neue Ideen entwickelt, Dies widerspricht deutlich dem algorithmischen Denkansatz, der fordert, dass alle qualitativen Aspekte vorausgeplant sein müssen. Ein viertes Problem ist die Tatsache, dass der algorithmische Ansatz eine klare Abtrennung der Heuristik und der Teleologie vom expliziten Algorithmus fordert. Zusammengefasst wäre es lächerlich, die Arbeitsweise unseres Gehirns mit der Ausführung eines Algorithmus zu identifizieren.
  19. Hertzel, D.H.: Bibliometric research: history (2009) 0.04
    0.037333336 = product of:
      0.07466667 = sum of:
        0.07466667 = product of:
          0.14933334 = sum of:
            0.14933334 = weight(_text_:d.h in 3807) [ClassicSimilarity], result of:
              0.14933334 = score(doc=3807,freq=2.0), product of:
                0.27376357 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.044359796 = queryNorm
                0.5454829 = fieldWeight in 3807, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3807)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  20. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.04
    0.03701521 = product of:
      0.07403042 = sum of:
        0.07403042 = sum of:
          0.056 = weight(_text_:d.h in 1833) [ClassicSimilarity], result of:
            0.056 = score(doc=1833,freq=2.0), product of:
              0.27376357 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.044359796 = queryNorm
              0.20455608 = fieldWeight in 1833, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1833)
          0.01803042 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
            0.01803042 = score(doc=1833,freq=2.0), product of:
              0.15534045 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044359796 = queryNorm
              0.116070345 = fieldWeight in 1833, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1833)
      0.5 = coord(1/2)
    
    Abstract
    Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
    Date
    11. 5.2008 19:49:22

Languages

Types

  • a 1177
  • m 158
  • el 69
  • s 51
  • b 26
  • x 18
  • i 9
  • r 3
  • n 2
  • p 1
  • More… Less…

Themes

Subjects

Classifications