Search (127 results, page 1 of 7)

  • × type_ss:"r"
  1. Buchbinder, R.; Weidemüller, H.U.; Tiedemann, E.: Biblio-Data, die nationalbibliographische Datenbank der Deutschen Bibliothek (1979) 0.01
    0.008516544 = product of:
      0.06813235 = sum of:
        0.037922304 = weight(_text_:physik in 4) [ClassicSimilarity], result of:
          0.037922304 = score(doc=4,freq=2.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            0.35184145 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.018961152 = product of:
          0.037922304 = sum of:
            0.037922304 = weight(_text_:physik in 4) [ClassicSimilarity], result of:
              0.037922304 = score(doc=4,freq=2.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                0.35184145 = fieldWeight in 4, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4)
          0.5 = coord(1/2)
        0.011248891 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.011248891 = score(doc=4,freq=12.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.29991096 = fieldWeight in 4, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
      0.125 = coord(3/24)
    
    Abstract
    Die deutschen nationalbibliographische Datenbank Biblio-Data wird in Teil A mit ihren Grundlagen vorgestellt. Biblio-Data basiert auf dem Information-Retrieval-System STAIRS von IBM, das durch Zusatzprogramme der ZMD verbessert wurde. Das Hauptgewicht dieses Beitrags liegt auf der Erörterung des Biblio-Data-Konzepts, nach dem die Daten der Deutschen Bibliographie retrievalgerecht aufbereitet und eingegeben werden. Auf Eigenarten, Probleme und Mängel, die daraus entstehen, dass Biblio-Data auf nationalbibliographischen Daten aufbaut, wird ausführlich eingegangen. Zwei weitere Beiträge zeigen an einigen Beispielen die vielfältigen Suchmöglichkeiten mit Biblio-Data, um zu verdeutlichen, dass damit nicht nur viel schenellere, sondern auch bessere Recherchen ausgeführt werden können. Teil B weist nach, dass Biblio-Data weder die Innhaltsanalyse noch die Zuordnung von schlagwörtern automatisieren kann. Im derzeitigen Einsatzstadium fällt Biblio-Data die Aufgabe zu, die weiterhin knventionall-intellektuell auszuführende Sacherschließung durch retrospektive Recherchen, insbesonderr durch den wesentlich erleichterten Zugriff auf frühere Indexierungsergebnisse, zu unterstützen. Teil C schildert die praktische Arbeit mit Biblio-Data bei bibliographischen Ermittlungen und Literaturzusammenstellunen und kommt zu dem Ergebnis, dass effektive und bibliographische Arbeit aus der sinnvollen Kombination von Datenbank-Retrieval und konventioneller Suche bestehet.
    Imprint
    Eggenstein-Leopoldshafen : Fachinformationszentrum Energie, Physik, Mathematik
  2. Sacherschließung : Zentrale Dienstleistungen und Nutzung von Fremdleistungen. Kolloquium des Dbi am 13.-14.2.1984 in Königstein (o.J.) 0.01
    0.0065311915 = product of:
      0.0783743 = sum of:
        0.07286349 = weight(_text_:kooperative in 2399) [ClassicSimilarity], result of:
          0.07286349 = score(doc=2399,freq=4.0), product of:
            0.114685155 = queryWeight, product of:
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.016922936 = queryNorm
            0.63533497 = fieldWeight in 2399, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.046875 = fieldNorm(doc=2399)
        0.005510809 = weight(_text_:und in 2399) [ClassicSimilarity], result of:
          0.005510809 = score(doc=2399,freq=2.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.14692576 = fieldWeight in 2399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2399)
      0.083333336 = coord(2/24)
    
    Footnote
    Auf diesem Kolloquium wurde die Entscheidung getroffen, RSWK in der Deutschen Bibliothek für Produktion zentraler Dienstleistungen im Bereich der Sacherschließung (u.a. für die Deutsche Bibliographie) zu nutzen; vgl. den Bericht von C. Müller im Bibliotheksdienst 18(1984) u. H.D. Gebauer: DBI-Kolloquium zur Sacherschließung in: Mitteilungsblatt. Verband der Bibliotheken des Landes NW N.F. 34(1984) S.158-159. - Dieser Band wird von G. Heinrich in ihrem Beitrag in 'Neue Regelwerke zum Schlagwortkatalog' unter Nr.45 als 'im Druck' zitiert mit folgenden Beiträgen: Frankenberger, R.: Kooperative verbale Sacherschließung nach RSWK im Bayerischen Verbund; Galsterer, B. Stellenwert zentraler Sacherschließung für Öffentliche Bibliotheken; Geisselmann, F.: Aus der Arbeit der UB Augsburg an der Standardschlagwortliste; Junginger, F.: Gibt es eine tragfähige Basis für eine kooperative Sacherschließung?; Kelm, B.: Aus der Arbeit der Deutschen Bibliothek an der Standardschlagwortliste; Maaßen, B,: Die Verknüpfung der Einzelschlagwörter zu Ketten, insbesondere nach dem PRECIS-Kurzregelwerk; Pflug, G.: Die Dienstleistungen der Deutschen Bibliothek im Bereich Sacherschließung; Poll, R.: Kettenbildung nach RSWK; Rothbart, O.-R.: Die Dienstleistungen im Bereich Sacherschließung für Öffentliche Bibliotheken aus der Sicht der ekz. - Nach dem Stand der Erkenntnisse (1992) ist nicht damit zu rechnen, daß dieser Bericht jemals erscheinen wird.
  3. Inhaltsbezogene Suche von Bildern und Videosequenzen in digitalen multimedialen Archiven : Beiträge eines Workshops der KI'98 am 16./17.9.1998 in Bremen (1998) 0.01
    0.0062071346 = product of:
      0.074485615 = sum of:
        0.060109314 = weight(_text_:kooperative in 10) [ClassicSimilarity], result of:
          0.060109314 = score(doc=10,freq=2.0), product of:
            0.114685155 = queryWeight, product of:
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.016922936 = queryNorm
            0.5241246 = fieldWeight in 10, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.0546875 = fieldNorm(doc=10)
        0.014376301 = weight(_text_:und in 10) [ClassicSimilarity], result of:
          0.014376301 = score(doc=10,freq=10.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.38329202 = fieldWeight in 10, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=10)
      0.083333336 = coord(2/24)
    
    Abstract
    Enthält die Fachbeiträge eines Workshops zum Thema "Inhaltsbezogene Suche von Bildern und Videosequenzen in digitalen multimedialen Archiven", der am 16. u. 17.9.1998 im Rahmen der Tagung KI'98 an der Universität Bremen stattfand
    Content
    Enthält die Beiträge: SPECHT, G.: Architekturen von Multimedia-Datenbanksystemen zur Speicherung von Bildern und Videos; MALSY, M. u.a.: Unterstützung des strutkturierten Zugriffs auf MPEG Videos in einem Multimedia-Datenbankmanagementsystem; ARLT, B. u. R.W. BRAUSE: Image encoding by independent principal components; DITTMANN, J. u.a.: Objektverfolgung und Szenenerkennung in Video auf Basis von Kantendetektion; THOMAS, P.: Verteilte digitale Medienarchivsysteme für kooperative Fernsehproduktion; DAMMEYER, A. u.a.: Videoanalyse mit DiVA
    Imprint
    Bremen : Universität Bremen / Fachbereich Mathematik und Informatik
  4. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.01
    0.0057837702 = product of:
      0.046270162 = sum of:
        0.013777021 = weight(_text_:und in 4063) [ClassicSimilarity], result of:
          0.013777021 = score(doc=4063,freq=18.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3673144 = fieldWeight in 4063, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.019107739 = product of:
          0.038215477 = sum of:
            0.038215477 = weight(_text_:prozesse in 4063) [ClassicSimilarity], result of:
              0.038215477 = score(doc=4063,freq=2.0), product of:
                0.10819818 = queryWeight, product of:
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.016922936 = queryNorm
                0.3531989 = fieldWeight in 4063, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4063)
          0.5 = coord(1/2)
        0.013385398 = product of:
          0.026770797 = sum of:
            0.026770797 = weight(_text_:systeme in 4063) [ClassicSimilarity], result of:
              0.026770797 = score(doc=4063,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.2956176 = fieldWeight in 4063, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4063)
          0.5 = coord(1/2)
      0.125 = coord(3/24)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
  5. Hochschule im digitalen Zeitalter : Informationskompetenz neu begreifen - Prozesse anders steuern (2012) 0.01
    0.0057006353 = product of:
      0.045605082 = sum of:
        0.0168358 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.0168358 = score(doc=506,freq=42.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.44886562 = fieldWeight in 506, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.026476458 = product of:
          0.052952915 = sum of:
            0.052952915 = weight(_text_:prozesse in 506) [ClassicSimilarity], result of:
              0.052952915 = score(doc=506,freq=6.0), product of:
                0.10819818 = queryWeight, product of:
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.016922936 = queryNorm
                0.4894067 = fieldWeight in 506, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.5 = coord(1/2)
        0.0022928242 = product of:
          0.009171297 = sum of:
            0.009171297 = weight(_text_:22 in 506) [ClassicSimilarity], result of:
              0.009171297 = score(doc=506,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.15476047 = fieldWeight in 506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.25 = coord(1/4)
      0.125 = coord(3/24)
    
    Abstract
    Die rasanten Veränderungen der Kommunikation und der daraus resultierende soziale und kulturelle Wandel betreffen auch die Hochschulen in besonderer Weise. Hochschulleitungen haben hier bereits schon reagiert, sie stehen aber weiterhin vor der Herausforderung, auf die Veränderungen zu reagieren und entsprechende Maßnahmen zu ergreifen. Es bedarf nicht nur einer Harmonisierung des Informationsmanagements und der Informationsinfrastruktur, sondern integrativ auch der Stärkung der Informationskompetenz auf allen Ebenen der Organisation. Da diese Herausforderung das gesamte System Hochschule betrifft, wird der Begriff der Informationskompetenz hier gegenüber seiner herkömmlichen Verwendung deutlich ausgeweitet: Es wird nicht nur die akademische Informationskompetenz betrachtet, die in Lehre und Forschung zum Tragen kommt, sondern auch die organisationsbezogene Informationskompetenz, die sich auf alle hochschulinternen Abläufe bezieht. Zugleich geht es in der Empfehlung nicht, wie es der Titelbegriff "Hochschule im digitalen Zeitalter" nahe legen könnte, um Konzepte wie das einer Netzhochschule.
    Zur Stärkung der Informationskompetenz der Studierenden ist es erforderlich, dass entsprechende Lehrangebote ausgebaut, stärker als bisher curricular verankert und möglichst flächendeckend angeboten werden. Die unterschiedlichen, von verschiedenen Akteuren zur Verfügung gestellten Lehrangebote zur Vermittlung von Informationskompetenz sollten mehr als bisher aufeinander abgestimmt und miteinander verschränkt werden. Um die Informationskompetenz aller Lehrenden zu sichern, sollten diese mehr als bisher entsprechende Fortbildungs- und Trainingsangebote wahrnehmen. Die Hochschulleitungen sollten dafür Sorge tragen, dass entsprechende attraktive Angebote zur Verfügung gestellt werden. Auch die Informationskompetenz der Forschenden muss ausgebaut werden, indem entsprechende Qualifizierungsangebote wahrgenommen und Qualifikationsmaßnahmen stärker als bisher z. B. in den Curricula der Graduierten- und Postgraduiertenausbildung verankert werden. Forschende können ihre Informationskompetenz zugleich im Rahmen von Kompetenznetzwerken stärken. Dies gilt es entsprechend seitens der Hochschulleitungen zu unterstützen. Die Hochschulleitungen sollten Strukturen und Prozesse im Rahmen eines hochschulinternen "Governance"-Prozesses verändern können. Innerhalb der Hochschulleitung muss daher eine Person für die Themen "Informationsinfrastruktur" und "Stärkung der Informationskompetenz" verantwortlich und Ansprechpartner sein. Was die Dienstleistungen angeht, wird insbesondere empfohlen, dass die Mitarbeiterinnen und Mitarbeiter der Hochschulbibliotheken und Rechenzentren ihre Kompetenzen erweitern, um die Forscherinnen und Forscher beim Datenmanagement besser unterstützen zu können.
    Die HRK sieht sich künftig für die bundesweite strategische Koordination des Handlungsfeldes "Informationskompetenz" verantwortlich. Um das Zusammenwirken an der Schnittstelle zwischen den Fakultäten bzw. Fachbereichen einerseits und den Bibliotheken und Rechenzentren andererseits zu verbessern, richtet die HRK eine Arbeitsgruppe ein, die Prozesse an der o. g. Schnittstelle jeweils mit Blick auf ausgewählte Fächer in regelmäßigen Zeitabständen begleitet und Vorschläge zur Verbesserung der Zusammenarbeit formuliert. Die Politik in Bund und Ländern sollte ihren Anteil am Aufbau solcher Strukturen leisten und die notwendigen Maßnahmen finanziell unterstützen.
    Date
    8.12.2012 17:22:26
  6. Enzyklopädie im Wandel : Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot (2002) 0.00
    0.0035337266 = product of:
      0.04240472 = sum of:
        0.012365256 = weight(_text_:und in 1882) [ClassicSimilarity], result of:
          0.012365256 = score(doc=1882,freq=58.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.32967478 = fieldWeight in 1882, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
        0.030039461 = weight(_text_:kritische in 1882) [ClassicSimilarity], result of:
          0.030039461 = score(doc=1882,freq=4.0), product of:
            0.11407853 = queryWeight, product of:
              6.7410603 = idf(docFreq=141, maxDocs=44218)
              0.016922936 = queryNorm
            0.26332265 = fieldWeight in 1882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.7410603 = idf(docFreq=141, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
      0.083333336 = coord(2/24)
    
    Abstract
    "Enzyklopädie im Wandel: Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot?" lautete das Thema der Auftaktveranstaltung, die am 12. Dezember 2001 im Rahmen des Diskussionsforums "Kölner Dialog Informationswissenschaft" an der Fachhochschule Köln stattfand. Enzyklopädien sind stets dem Zeitgeist verpflichtet und im Wandel begriffen. Sie passen sich in ihrer Konzeption den zu erwartenden Bedürfnissen der Benutzer und den produktionstechnischen Möglichkeiten an. Gegenwärtig ist ein Nebeneinander von gedruckten und digitalen Enzyklopädien zu beobachten. Während gedruckte Enzyklopädien die Breite des Wissens zweidimensional erfahrbar machen und für den raschen Zugriff oft weiterhin bevorzugt werden, bieten Enzyklopädien in digitaler Form neben neuen Retrievaltechniken durch multimediale Synergien einen erheblich verbesserten Zugang zu den erläuterten Phänomenen. Die Autoren dieses Bandes setzen sich mit den Ansprüchen auseinander, die an die Konzeption von Enzyklopädien zu Beginn des 21. Jahrhunderts gestellt werden. Die einzelnen Beiträge vermitteln einen Einblick in Entstehung, Umfang und Funktionalitäten der auf der Buchmesse 2001 vorgestellten Neuausgaben der renommierten Nachschlagewerke "Brockhaus multimedial" und "Microsoft Encarta". Abschließend werden die Fragenkomplexe "Beitrag der Enzyklopädie zum Wissenserwerb heute" sowie "Entwicklungsperspektiven und Trägermedien von Enzyklopädien" thematisiert.
    Content
    Enthält die Beiträge: VOLPERS, H.: Idee und Begriff der Enzyklopädie im Wandel der Zeit; ANGER, E.: Brockhaus multimedial 2002 auf CD-ROM und DVD-ROM; HILTL, M.: Die Encarta Enzyklopädie Proefessional 2002 von Microsoft; HÄRKÖNEN, S.: Enzyklopädie im Wandel (Podiumsdiskussion)
    Footnote
    Rez. in: B.I.T. online 5(2002) H.3, S.281 (R. Fuhlrott) - Medienwissenschaft. 2003, H.1, S.72-74 (M. Hollender): "Der Sammelband gibt die Beiträge einer gleichnamigen Veranstaltung an der Fachhochschule Köln am 12. Dezember 2001 wieder. - Über enzyklopädisches Wissen verfügen zu wollen, sei in den letzten Jahren, so Helmut Volpers in seiner Einführung, durch den ,Verfall bildungsbürgerlicher Ideale" stark rückläufig gewesen; derzeit aber erlebe die Wertschätzung einer hohen Allgemeinbildung wieder einmal eine - popularisierte und medientaugliche - Renaissance: Die Verfügbarkeit über Faktenwissen eröffne die Chance, in der Flut der Fernsehrateshows zum Millionär zu avancieren. Volpers Beitrag über "Idee und Begriff der Enzyklopädie im Wandel der Zeit" widmet sich ausführlich vor allem Werken von Diderot und D'Alembert, dem Zedler und den frühen Brockhaus-Ausgaben. Sein Text liefert indes keine neuen Erkenntnisse und ist vor allem für Examenskandidaten hilfreich. Der Aufsatz von Volpers erfüllt aber wiederum als einziger der drei Beiträge die Ansprüche, die man an eine wissenschaftliche Veröffentlichung gemeinhin stellt. Die nachfolgenden Texte nämlich, die die Enzyklopädien von Brockhaus und Encarta in der CD-ROM-/DVD-Version präsentieren, stammen nicht von kommerziell unabhängig und wertneutral arbeitenden Verfassern, sondern vom Managing Editor New Media des Brockhaus-Verlages (Eberhard Anger) bzw. vom Chefredakteur der deutschsprachigen Encarta-Redaktion (Michael Hiltl). Demzufolge lesen sich die Beiträge wie eine Presseerklärung der Konzerne bzw. wie eine besonders kundenfreundlich formulierte Bedienungsanleitung für Fortgeschrittene. Von den Veranstaltern hätte man sich als Gegenpart auch eine kritische Stimme gewünscht; die Selbstanpreisungen der Firmenvertreter wie auch die Tendenz der Aussagen verstimmt den Leser, der eine abgewogene Darstellung erwartet hatte, zusehends. Dies beginnt bei der pauschalen Behauptung, der Brockhaus habe die NS-Ära aufgrund seiner Distanz zum Regime unbeschadet überstanden (die Darstellung von Senya Müller: Sprachwörterbücher im Nationalsozialismus: die ideologische Beeinflussung von Duden, Sprach-Brockhaus und anderen Nachschlagewerken während des "Dritten Reichs", Stuttgart 1994, beweist hinsichtlich des Sprach-Brockhauses das Gegenteil) und endet bei der Forderung, Internetinformationen müssten zukünftig mehr und mehr kostenpflichtig werden. Das merkantile Interesse von Anger und Hiltl ist freilich verständlich: Lexikonverlage stehen unter enormem Existenz- und Legitimationsdruck, um den Wettbewerb gegen sekundenschnell via Suchmaschinen kostenfrei erhältliche Informationen nicht zu verlieren. Und tatsächlich haben die internationalen Lexikonverlage in den letzten Jahren enorm aufgerüstet - die Unterschiede zwischen der großväterlich biederen Schrankwandausgabe des Brockhaus' und der Multimediaausgabe sind derart frappierend, dass selbst die unkritische Eigenwerbung der Verlagsrepräsentanten noch zu begeistern vermag (und umso mehr wünscht man sich eine relativierende Gegenstimme!). Die Hymnen der Lexikonverkäufer auf ihre Produkte sollen an dieser Stelle nicht wiederholt werden, wer sich indes mit dem Gedanken trägt, eine moderne Enzyklopädie zu erwerben, dem seien die Referate von Anger und Hiltl als Einstiegslektüre nur zu empfehlen. Wer hätte geahnt, dass die CD-ROMs des Brockhaus 2002 als Dreingabe auch den zweibändigen Brockhaus des Jahres 1906 einschließen! Zumindest soviel ist den Verlagsvertretern und den Kölner Tagungsveranstaltern gelungen: Sie wecken das Interesse an elektronischen lexikalischen Produkten. Kritische Stimmen muss man sich eben an anderer Stelle suchen.
    In regelmäßigen, sehr engen Abständen sind aus dem Netz Aktualisierungen der Enzyklopädien herunterladbar, die die veralteten Einträge automatisch überschreiben. Ungeklärt bleiben in diesem Zusammenhang leider zwei Fragen: Wie soll zukünftig aus derlei Werken wissenschaftlich seriös unter Angabe der Quelle zitiert werden? Aus konventionellen Lexika wird zwar selten zitiert, der Multimedia-Brockhaus umfasst hingegen ein Textvolumen, das mehr als viermal so groß ist wie das der Printausgabe, wodurch es als Quelle also eher infrage kommt. Unbeantwortet bleibt leider auch die wissenschaftshistorische Frage, ob die Entwicklungsstufen des sich täglich wandelnden und aktualisierenden Lexikons auf einem Brockhaus- bzw. Encarta-Archivserver dauerhaft gespeichert werden. Wissenschaftsgeschichte ist zwingend darauf angewiesen, nachweisen zu können, welcher Wissensstand zu welchem Zeitpunkt welchen Bevölkerungsgruppen als Gemeingut bekannt war; die Virtualität der Enzyklopädie als non-book-material macht derlei Studien womöglich bald unmöglich. Der Tagungsband wird unter http://www.fbi.fh-koeln.de/fachbereich/papers/ kabi/index.cfm auch im Netz vorgehalten. Sollten sämtliche Bände der Schriftenreihe Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft über eine derart billige Klebebindung verfügen wie das mir vorliegende Exemplar, gehört die Zukunft wieder ein Stückweit mehr der Netzpublikation: Der Selbstatomisierung des Heftes in drei Dutzend lose Blätter lässt sich so entgehen."
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.32
  7. Frisch, E.; Kluck, M.: Pretest zum Projekt German Indexing and Retrieval Testdatabase (GIRT) unter Anwendung der Retrievalsysteme Messenger und freeWAISsf (1997) 0.00
    0.0030093442 = product of:
      0.03611213 = sum of:
        0.014695491 = weight(_text_:und in 624) [ClassicSimilarity], result of:
          0.014695491 = score(doc=624,freq=8.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.39180204 = fieldWeight in 624, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=624)
        0.021416638 = product of:
          0.042833276 = sum of:
            0.042833276 = weight(_text_:systeme in 624) [ClassicSimilarity], result of:
              0.042833276 = score(doc=624,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.4729882 = fieldWeight in 624, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0625 = fieldNorm(doc=624)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    GIRT soll den Rahmen für einen aussagekräftigen Vergleich moderner, intelligenter Indexierungs- und Retrievalsysteme schaffen, auf dessen Basis die Leistungsfähigkeit dieser Systeme gegenüber herkömmlichen Standardsystemen beurteilt werden kann. Es geht darum, die existierenden bzw. in der Entwicklung befindlichen modernen Indexierungs- und Retrievalsysteme auf ihre Leistungsfähigkeit und Einsatzfähigkeit für den Bereich der Fachinformation hin zu überprüfen
  8. Nohr, H.: Wissen und Wissensprozesse visualisieren (2000) 0.00
    0.002774333 = product of:
      0.033291996 = sum of:
        0.014376301 = weight(_text_:und in 2974) [ClassicSimilarity], result of:
          0.014376301 = score(doc=2974,freq=40.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.38329202 = fieldWeight in 2974, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2974)
        0.018915694 = product of:
          0.03783139 = sum of:
            0.03783139 = weight(_text_:prozesse in 2974) [ClassicSimilarity], result of:
              0.03783139 = score(doc=2974,freq=4.0), product of:
                0.10819818 = queryWeight, product of:
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.016922936 = queryNorm
                0.34964904 = fieldWeight in 2974, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2974)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    Wissen wird im modernen Wirtschaftsgeschehen zunehmend als eine wettbewerbsentscheidende Ressource angesehen. Es ist zu einem der wichtigsten Werte für Unternehmen geworden, um im globalen Wettbewerb bestehen zu können. Die Bemühungen der Unternehmen um Generierung und Akquisition von Wissen werden ständig intensiviert. Alle Anstrengungen, Wissen aus externen Quellen in die Unternehmung zu integrieren bzw. selbst neues Wissen zu erzeugen, bleiben allein jedoch wenig sinnvoll. "It's an ongoing quest within an organization (...) to help discover the location, ownership, value and use of knowledge artifacts, to lern the roles and expertise of people, to identify constraints to the flow of knowledge, and to highlight opportunities to leverage existing knowledge." (Grey 1999)
    Der wirkungsvolle und erfolgreiche Umgang mit Wissen wird erst durch aufeinander abgestimmte Management-Bausteine erreicht, wie sie heute im Rahmen von Konzeptionen eines Wissensmanagements formuliert werden. Bausteine eines solchen Wissensmanagements sind auf strategischer wie auf operativer Ebene angesiedelt. Auf der strategischen Ebene geht es vor allem um die Formulierung von Wissenszielen der Organisation, basierend auf den als kritisch erkannten Erfolgsfaktoren. Auf der operativen Ebene benennen verschiedene Konzeptionen eines Wissensmanagement heute unterschiedlich differenzierte Bausteine der Realisierung. Generalisiert lassen sich in nahezu allen Konzeptionen jedoch drei Gruppen von Bausteinen identifizieren, die je nach Ansatz weiter differenziert werden können: - Wissensgenerierung und Wissenserwerb - Wissensidentifikation und Wissenstransparenz - Wissensverteilung und Wissensnutzung Wissenstransparenz bzw. die Identifikation von Wissen werden in den gängigen Konzeptionen also als ein zentrales Element der operativen Aufgaben im Wissensmanagement erkannt (vgl. Probst/Romhardt 1996; Probst et al. 1998) Bullinger et al. 1998; Davenport/Prusak 1998). Im Gegensatz zum Datenmanagement und auch zum Informationsmanagement, spielen in diesen Konzepten vor allem auch die individuellen Wissensressourcen der Mitarbeiterinnen und Mitarbeiter eine entscheidende Rolle. Es ist eine Schlüsselerkenntnis modernen Managements, dass wesentliche Werte der Unternehmung 2in den Köpfen der Mitarbeiter" zu finden sind. Dabei ist Wissen als eine Ressource erkannt, die von Menschen generiert wird, an diese Menschen gebunden ist, auf Erfahrungen und Einstellungen beruht und sich nur in sehr eingeschränktem Masse externalisieren und übertragen lässt (tacit knowledge). In diesem Sinne geht es uns in der Hauptsache um Handlungswissen, um das "gewusst wie". Wie können mühsam erworbene Erfahrungen dokumentiert und transparent gemacht werden, wie kann dafür gesorgt werden, dass sie dem Unternehmen insgesamt und jederzeit zugute kommen können? Wie können erfolgreich durchgefiihrte Aktivitäten und Prozesse als Muster dienen, wenn analoge Aufgaben an anderen Orten und zu anderen Zeiten zu erfüllen sind? Wie gelangen wir vom individuellen Wissen einzelner Mitarbeiter zur Fähigkeit von Organisationen oder Teams, komplexe Probleme und Aufgaben zu lösen? Wenn generiertes, durch Erfahrung gewonnenes oder eingekauftes Wissen dem Unternehmen insgesamt, d.h. den Mitarbeitern die dieses Wissen jeweils benötigen, zugute kommen soll, muss für eine Transparenz über das unternehmensweit vorhandene Wissen gesorgt werden, ebenso über Wissen im Umfeld eines Unternehmens (bspw. bei Partner, Kunden, Behörden usw.). Dabei ist beim Wissensmanagement zunehmend die Tendenz einer räumlich dezentralen - oft sogar globalen - sowie zeitlich flüchtigen und virtuellen Organisation der Unternehmungen zu berücksichtigen (Faisst 1996). Unternehmen suchen nach best practices zur Organisation von Team- und Gruppenprozessen. Unternehmerische Prozesse und unternehmensrelevantes Wissen besitzen heute eine hohe Komplexität, die eine Erfassung, Speicherung und Verteilung des benötigten Wissens selbst ausgeschlossen erscheinen lässt bzw. nur unter Einsatz enormer Ressourcen möglich macht. Die angesprochenen Schwierigkeiten der Externalisierung des jeweils individuellen Erfahrungswissens von Experten stehen diesem Unterfangen ohnehin unüberbrücklich im Wege.
  9. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.00
    0.002496155 = product of:
      0.02995386 = sum of:
        0.020782562 = weight(_text_:und in 7383) [ClassicSimilarity], result of:
          0.020782562 = score(doc=7383,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.55409175 = fieldWeight in 7383, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=7383)
        0.009171297 = product of:
          0.036685187 = sum of:
            0.036685187 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
              0.036685187 = score(doc=7383,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.61904186 = fieldWeight in 7383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7383)
          0.25 = coord(1/4)
      0.083333336 = coord(2/24)
    
    Date
    22. 2.1997 19:46:30
  10. Puzicha, J.: Informationen finden! : Intelligente Suchmaschinentechnologie & automatische Kategorisierung (2007) 0.00
    0.0024634292 = product of:
      0.029561149 = sum of:
        0.0134986695 = weight(_text_:und in 2817) [ClassicSimilarity], result of:
          0.0134986695 = score(doc=2817,freq=12.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.35989314 = fieldWeight in 2817, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
        0.01606248 = product of:
          0.03212496 = sum of:
            0.03212496 = weight(_text_:systeme in 2817) [ClassicSimilarity], result of:
              0.03212496 = score(doc=2817,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.35474116 = fieldWeight in 2817, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2817)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    Wie in diesem Text erläutert wurde, ist die Effektivität von Such- und Klassifizierungssystemen durch folgendes bestimmt: 1) den Arbeitsauftrag, 2) die Genauigkeit des Systems, 3) den zu erreichenden Automatisierungsgrad, 4) die Einfachheit der Integration in bereits vorhandene Systeme. Diese Kriterien gehen davon aus, dass jedes System, unabhängig von der Technologie, in der Lage ist, Grundvoraussetzungen des Produkts in Bezug auf Funktionalität, Skalierbarkeit und Input-Methode zu erfüllen. Diese Produkteigenschaften sind in der Recommind Produktliteratur genauer erläutert. Von diesen Fähigkeiten ausgehend sollte die vorhergehende Diskussion jedoch einige klare Trends aufgezeigt haben. Es ist nicht überraschend, dass jüngere Entwicklungen im Maschine Learning und anderen Bereichen der Informatik einen theoretischen Ausgangspunkt für die Entwicklung von Suchmaschinen- und Klassifizierungstechnologie haben. Besonders jüngste Fortschritte bei den statistischen Methoden (PLSA) und anderen mathematischen Werkzeugen (SVMs) haben eine Ergebnisqualität auf Durchbruchsniveau erreicht. Dazu kommt noch die Flexibilität in der Anwendung durch Selbsttraining und Kategorienerkennen von PLSA-Systemen, wie auch eine neue Generation von vorher unerreichten Produktivitätsverbesserungen.
  11. Bredemeier, W.; Stock, M.; Stock, W.G.: ¬Die Branche elektronischer Geschäftsinformationen in Deutschland 2000/2001 (2001) 0.00
    0.002325638 = product of:
      0.027907655 = sum of:
        0.014522257 = weight(_text_:und in 621) [ClassicSimilarity], result of:
          0.014522257 = score(doc=621,freq=20.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3871834 = fieldWeight in 621, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=621)
        0.013385398 = product of:
          0.026770797 = sum of:
            0.026770797 = weight(_text_:systeme in 621) [ClassicSimilarity], result of:
              0.026770797 = score(doc=621,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.2956176 = fieldWeight in 621, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=621)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Content
    Der deutsche Markt für Elektronische Informationsdienste im Jahre 2000 - Ergebnisse einer Umsatzerhebung - Von Willi Bredemeier: - Abgesicherte Methodologie unter Berücksichtigung der Spezifika des EIS-Marktes und der aktuellen Entwicklung - teilweise Vergleichbarkeit der Daten ab 1989 - Weitgehende quantitative Markttransparenz, da der Leser die Aggregationen der Markt- und Teilmarktdaten aus einzelwirtschaftlichen Daten voll nachvollziehen kann - 93 zum Teil ausführliche Tabellen vorwiegend zu einzelnen Informationsanbietern unter besonderer Berücksichtigung der Geschäftsjahre 2000 und 1999, unterteilt in die Bereiche Gesamtmarkt für Elektronische Informationsdienste, Datev, Realtime-Finanzinformationen, Nachrichtenagenturen, Kreditinformationen, Firmen- und Produktinformationen, weitere Wirtschaftsinformationen, Rechtsinformationen, Wissenschaftlich-technisch-medizinische Informationen - Intellectual Property, Konsumentendienste, Nachbarmärkte - Analyse aktueller Markttrends. Qualität professioneller Firmeninformationen im World Wide Web - Von Mechtild Stock und Wolfgang G. Stock: - Weiterführung der Qualitätsdiskussion und Entwicklung eines Systems von Qualitätskriterien für Informationsangebote, bezogen auf Firmeninformationen im Internet - "Qualitätspanel" für die Bereiche Bonitätsinformationen, Firmenkurzdossiers, Produktinformationen und Adressinformationen mit den Anbietern Bürgel, Creditreform, Dun & Bradstreet Deutschland, ABC online, ALLECO, Hoppenstedt Firmendatenbank, Who is Who in Multimedia, Kompass Deutschland, Sachon Industriedaten, Wer liefert was?, AZ Bertelsmann, Schober.com - Hochdifferenzierte Tests, die den Kunden Hilfen bei der Auswahl zwischen Angeboten und den Anbietern Hinweise auf Maßnahmen zu qualitativen Verbesserungen geben - Detaillierte Informationen über eingesetzte Systeme der Branchen- und Produktklassifikationen - Rankings der Firmeninformationsanbieter insgesamt sowie nach Datenbasen, Retrievalsystemen und Websites, Detailinformationen zu allen Qualitätsdimensionen
  12. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.00
    0.002289254 = product of:
      0.027471047 = sum of:
        0.012184857 = weight(_text_:und in 4250) [ClassicSimilarity], result of:
          0.012184857 = score(doc=4250,freq=22.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3248651 = fieldWeight in 4250, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
        0.01528619 = product of:
          0.03057238 = sum of:
            0.03057238 = weight(_text_:prozesse in 4250) [ClassicSimilarity], result of:
              0.03057238 = score(doc=4250,freq=2.0), product of:
                0.10819818 = queryWeight, product of:
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.016922936 = queryNorm
                0.2825591 = fieldWeight in 4250, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4250)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  13. Nentwig, L.: Semantische Interoperabilität : Bd.3: Qualitätssicherung von Spezifikationen (2010) 0.00
    0.0021546734 = product of:
      0.025856081 = sum of:
        0.015147763 = weight(_text_:und in 4849) [ClassicSimilarity], result of:
          0.015147763 = score(doc=4849,freq=34.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.40386027 = fieldWeight in 4849, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4849)
        0.010708319 = product of:
          0.021416638 = sum of:
            0.021416638 = weight(_text_:systeme in 4849) [ClassicSimilarity], result of:
              0.021416638 = score(doc=4849,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.2364941 = fieldWeight in 4849, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4849)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    Ziel des »Semantic Interoperability Engineering« (SIE) ist es, Grundlagen für einen Organisationsgrenzen überschreitenden Datenaustausch zu schaffen, in dem Fehlinterpretationen und inhaltliche Missverständnisse von Begriffen, Datenstrukturen, Schreibkonventionen etc. ausgeschlossen sind und semantische Interoperabilität herrscht. Im Zentrum des vorliegenden Bands 3 »Qualitätssicherung von Spezifikationen« stehen die sogenannten Interoperabilitätsspezifikationen. Mit ihnen werden diejenigen Eigenschaften erfasst, die IT-Systeme aufweisen müssen, um an einem interoperablen Datenaustausch teilzunehmen. Nur Spezifikationen mit einer hohen Qualität gewährleisten eine durchgängig eindeutige und semantische Interoperabilität. Neben der systematischen Entwicklung der Interoperabilitätsspezifikationen selbst nimmt daher der begleitende Qualitätsmanagementprozess einen wichtigen Teil dieses White Papers ein.
    Das SIE-Vorgehen ist für viele Umfelder geeignet: Sowohl Unternehmen mit internen Spezifikationsaktivitäten als auch Organisationen, die Standards entwickeln, können wesentlich vom SIE profitieren. Ein zentraler Aspekt ist, dass das beschriebene Vorgehen auf eine gemeinschaftliche Entwicklung von Spezifikationen durch eine offene1 und gleichberechtigte Community ausgerichtet ist. »Community« bezeichnet die Gesamtheit aller an der Entwicklung einer Spezifikation beteiligten Personen und Organisationen. Die einzelnen beteiligten Personen und Organisationen werden wiederum durch verschiedene Rollen beschrieben. Durch ihre jeweiligen Sichten ergänzen sich ihre Beiträge und tragen so zur Steigerung der Qualität bei. Durch die aktive und kontinuierliche Einbindung der Community sowie den integrierten Qualitätsmanagementprozess werden die Risiken eines Scheiterns reduziert und gleichzeitig die Chancen auf eine qualitativ hochwertige, akzeptierte und nutzbare Spezifikation deutlich gesteigert. Dem SIE-Vorgehen liegen drei Stützpfeiler als Richtlinie zugrunde, welche von der Community unbedingt eingehalten und verinnerlicht werden sollten: Kooperation - Vertrauen - Offenheit.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
    Imprint
    Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
  14. Wehling, E.: Framing-Manual : Unser gemeinsamer freier Rundfunk ARD (2019) 0.00
    0.0018167279 = product of:
      0.021800734 = sum of:
        0.018934704 = weight(_text_:und in 4997) [ClassicSimilarity], result of:
          0.018934704 = score(doc=4997,freq=34.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.50482535 = fieldWeight in 4997, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.0028660302 = product of:
          0.011464121 = sum of:
            0.011464121 = weight(_text_:22 in 4997) [ClassicSimilarity], result of:
              0.011464121 = score(doc=4997,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.19345059 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.25 = coord(1/4)
      0.083333336 = coord(2/24)
    
    Abstract
    Die ARD hat ein Gutachten in Auftrag gegeben, um die eigene Kommunikation zu verbessern. Das Gutachten wurde bisher nicht veröffentlicht, ist aber bereits Teil einer öffentlichen Debatte. Wir veröffentlichen das Gutachten, damit sich alle Beitragszahlende aus der Originalquelle informieren können und an der Debatte informierter teilhaben können. [Quelle: https://netzpolitik.org/2019/wir-veroeffentlichen-das-framing-gutachten-der-ard/].
    Content
    Vgl. auch den Kommentar in Open Password , Nr.157 vom 22.02.2019: "Vor wenigen Tagen wurde das "Framing-Manual" der Linguistin Elisabeth Wehling bekannt, das sie für 120.000 Euro für die ARD erarbeitet hat und fortlaufend in Workshops für Mitarbeiter eingesetzt wird. Da aus Frau Wehlings Sicht "objektives, faktenbegründetes und rationales Denken" nicht möglich ist, kann es im öffentlichen Streit der Meinungen nur mehr darum gehen, die eigenen Sprachregelungen durchzusetzen und die Rezipienten über Emotionalisierungen und implizite moralische Bewertungen über den Tisch zu ziehen. So sollten Bürger, die den Zwangsbeitrag für Rundfunk und Fernsehen nicht zahlen wollen, als "demokratieferne, wortbrüchige und illoyale Beitragshinterzieher" gebrandmarkt werden und sind "unserem gemeinsamen freien Rundfunk ARD" die "medienkapitalistischen Heuschrecken" entgegenzustellen. Derweil berichtet Meedia von einem zweiten Fall Relotius, einem freien Journalisten, der für die Süddeutsche Zeitung, die Zeit und den Spiegel geschrieben hat und soeben mit einer frei erfundenen Geschichte von der SZ überführt wurde. Das "Framing-Manual" erscheint mir als ein noch größerer Skandal als der Fall Claas Relotius mit seinen vielen erfundenen Geschichten im Spiegel und praktisch der gesamten weiteren "Qualitätspresse", weil die Spitzen der ARD und mit ihnen die nachgeordneten Strukturen das Manual von Frau Wehling willkommen geheißen haben und weiterhin zur Indoktrination ihrer Mitarbeiter verwenden. Fake News und die damit verbundene Kriegserklärung an Wahrheit und Wissenschaft kommen nicht von Donald Trump, sie werden selbst generiert und breiten sich ungehindert mit Wissen und Willen der Verantwortlichen in unserem "Qualitätsfernsehen" aus." (W. Bredemeier)
    Date
    22. 2.2019 9:26:20
  15. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.00
    0.0017513088 = product of:
      0.021015706 = sum of:
        0.016430058 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.016430058 = score(doc=1484,freq=10.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.0045856484 = product of:
          0.018342594 = sum of:
            0.018342594 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.018342594 = score(doc=1484,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.25 = coord(1/4)
      0.083333336 = coord(2/24)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
  16. Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur (2011) 0.00
    0.0015645304 = product of:
      0.018774364 = sum of:
        0.015908334 = weight(_text_:und in 4291) [ClassicSimilarity], result of:
          0.015908334 = score(doc=4291,freq=24.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.42413816 = fieldWeight in 4291, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.0028660302 = product of:
          0.011464121 = sum of:
            0.011464121 = weight(_text_:22 in 4291) [ClassicSimilarity], result of:
              0.011464121 = score(doc=4291,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.19345059 = fieldWeight in 4291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4291)
          0.25 = coord(1/4)
      0.083333336 = coord(2/24)
    
    Abstract
    Seit den 1970/80er Jahren unterstützen sechs Verbundzentralen die Dienstleistungen der Bibliotheken in Deutschland. Mit lokalen, regionalen und überregionalen Services leisten sie einen wichtigen Beitrag für ein funktionierendes nationales Bibliothekssystem. Neue Technologien und globale Vernetzung verändern jedoch die Informationslandschaft mit hoher Dynamik. Um den Herausforderungen in Zukunft gewachsen zu sein, empfehlen die Deutsche Forschungsgemeinschaft (DFG) und der Wissenschaftsrat (WR) eine strategische Neuausrichtung und eine Neuordnung der Verbundsysteme.
    Content
    "Empfehlungen zur Optimierung der Informationsinfrastruktur Verbundübergreifende Entwicklung bedarfsorientierter Services Angestrebt werden sollten stringente, verbundübergreifende arbeitsteilige Strukturen bei Betrieb und Entwicklung der gegenwärtigen wie der zukünftigen Dienste, um unnötige Mehrfacharbeit zu vermeiden und die Durchsetzung einheitlicher Standards zu erleichtern. Das ist technisch machbar und organisatorisch auch im föderalen Umfeld denkbar wie andere Beispiele (z.B. DFN) zeigen. Einführung neuer Steuerungsmechanismen Das derzeitige Finanzvolumen der Länder für Informationsservices (Finanzzuweisung an Verbundzentralen) muss erhalten bleiben und weiterhin die den bisherigen Regelungen entsprechenden Steigerungen erfahren. Gleichzeitig müssen behutsam, aber konsequent neue Steuerungsmechanismen eingeführt werden, die die Verbünde im höheren Maße als bisher in die Lage versetzen, neue Entwicklungen bedarfsorientiert aufzugreifen und verlässliche Dienste aufzubauen. Zur Steuerung sollten Aufsichtsgremien im Sinne von "Beiräten" vergleichbar den Beiräten der Informationsdienstleister in der WGL eingesetzt werden. Wege zu einer Neuausrichtung der Verbünde Neben den empfohlenen politisch-administrativen Maßnahmen erscheint ein attraktiv dimensioniertes Förderprogramm der DFG zur "Neuausrichtung überregionaler Informationsservices" und "Weiterentwicklung der Bibliotheksverbünde als Teil der überregionalen Informationsinfrastruktur" [Arbeitstitel] geeignet, den notwendigen Strukturwandel hin zu einem arbeitsteiligen, verbundübergreifenden Diensteangebot anzustoßen und zu koordinieren."
    Date
    7. 2.2011 19:52:22
    Editor
    Deutsche Forschungsgemeinschaft / Ausschuss für wissenschaftliche Bibliotheken und Informationssysteme
  17. Schardt-Sahelijo, L.P.; Pastowsky, M.: ¬Der iARD-Marktreport : optoelektronische Systeme für Imageverarbeitung, Archivierung, Information Retrieval, Dokumenten-Management (1994) 0.00
    0.0015616299 = product of:
      0.037479118 = sum of:
        0.037479118 = product of:
          0.074958235 = sum of:
            0.074958235 = weight(_text_:systeme in 3103) [ClassicSimilarity], result of:
              0.074958235 = score(doc=3103,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.82772934 = fieldWeight in 3103, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3103)
          0.5 = coord(1/2)
      0.041666668 = coord(1/24)
    
  18. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.00
    0.0015600969 = product of:
      0.018721161 = sum of:
        0.012989101 = weight(_text_:und in 5576) [ClassicSimilarity], result of:
          0.012989101 = score(doc=5576,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.34630734 = fieldWeight in 5576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
        0.0057320604 = product of:
          0.022928242 = sum of:
            0.022928242 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.022928242 = score(doc=5576,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.25 = coord(1/4)
      0.083333336 = coord(2/24)
    
    Abstract
    Diese Publikation beschreibt die Zusammenhänge zwischen wissenshaltigen begriffsorientierten Terminologien, Ontologien, Big Data und künstliche Intelligenz.
    Date
    13.12.2017 14:17:22
  19. Förderung von Informationsinfrastrukturen für die Wissenschaft : Ein Positionspapier der Deutschen Forschungsgemeinschaft (2018) 0.00
    0.0013869209 = product of:
      0.016643051 = sum of:
        0.013777021 = weight(_text_:und in 4178) [ClassicSimilarity], result of:
          0.013777021 = score(doc=4178,freq=18.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3673144 = fieldWeight in 4178, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4178)
        0.0028660302 = product of:
          0.011464121 = sum of:
            0.011464121 = weight(_text_:22 in 4178) [ClassicSimilarity], result of:
              0.011464121 = score(doc=4178,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.19345059 = fieldWeight in 4178, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4178)
          0.25 = coord(1/4)
      0.083333336 = coord(2/24)
    
    Abstract
    Das vorliegende Positionspapier befasst sich mit dem Förderhandeln der Deutschen Forschungsgemeinschaft (DFG) im Bereich der wissenschaftlichen Informationsinfrastrukturen. Es hat zwei Funktionen: Erstens reflektiert es - sowohl auf einer übergeordneten Ebene als auch für drei ausgewählte Themen - die strukturellen Rahmenbedingungen des DFG-Förderhandelns im Bereich der wissenschaftlichen Informationsinfrastrukturen und setzt sich mit den Anpassungsbedarfen auseinander, die sich aus der gegenwärtigen Ausgangslage ergeben. Darüber hinaus benennt es konkrete Maßnahmen als Reaktion auf die analysierten Herausforderungen und Handlungsbedarfe und bildet damit zweitens eine Leitschnur für das Förderhandeln im Bereich Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS).
    Als Selbstverwaltungsorganisation und Interessenvertretung der Wissenschaft sieht die DFG es als ihre Aufgabe an, den digitalen Wandel in den Wissenschaften aktiv mitzugestalten. Die Förderung im Bereich der Informationsinfrastrukturen erfolgt mit dem Anspruch, sich an einem von der Wissenschaft formulierten Bedarf zu orientieren, der anhaltend hohen Veränderungsdynamik gerecht zu werden, für unkonventionelle Projektideen sowie Projekte in einem explorativen Stadium offen zu sein und impulsgebend sowie struktur- und standardbildend zu wirken. Mit diesem Positionspapier reflektiert die DFG - nach 2006 und 2012 - zum dritten Mal die Folgen des digitalen Wandels für ihr Förderhandeln im Bereich der wissenschaftlichen Informationsinfrastrukturen. Erarbeitet wurde das Papier vom Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme, dem für die Förderung wissenschaftlicher Informationsinfrastrukturen fachlich zuständigen Gremium. Der AWBI ist im Rahmen seiner Zuständigkeit als Gremium des Hauptausschusses verantwortlich für die Ausgestaltung des Förderportfolios sowie einzelner Förderinitiativen im Bereich der wissenschaftlichen Informationsinfrastrukturen.
    Date
    22. 3.2018 17:30:43
  20. Öffentliche Bibliotheken und regionale Verbundsysteme : Ergebnisse und Materialsammlung (1996) 0.00
    9.681505E-4 = product of:
      0.023235612 = sum of:
        0.023235612 = weight(_text_:und in 896) [ClassicSimilarity], result of:
          0.023235612 = score(doc=896,freq=20.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.6194934 = fieldWeight in 896, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=896)
      0.041666668 = coord(1/24)
    
    Abstract
    Im Rahmen der Veranstaltung des DBI trafen landesweise je ein Vertreter der Staatlichen Fachstellen als Planungs-, Beratungs- und Dienstleitungsstellen für öffentliche Bibliotheken, die Leiter der regionalen und überregionalen Verbundsysteme, Vertreter der überregionalen bibliothekarischen Dienstleistungseinrichtungen DBI, DDB und EKZ sowie Vertreter beispielhafter Projekte (Ostwestfalen-Lippe-ExpressService (LB Detmold), Internet für öffentliche Bibliotheken (StB Bremen), Infothek (StB Köln / Bremen) und Vernetzungsinitiativen (Katalogisierungsverbund Öffentlicher und wissenschaftlicher Bibliotheken, Verbund Öffentlicher Bibliotheken Berlin, Verbund Öffentlicher Bibliotheken Brandenburgs, Rechenzentrum Alb-Schwarzwald) zusammen
    Footnote
    Ergebnisse und Voten des Diskussions- und Planungsforums des DBI am 25. und 26.4.1996 in Göttingen

Authors

Languages

  • d 106
  • e 20

Types