Search (207 results, page 1 of 11)

  • × type_ss:"m"
  • × year_i:[2000 TO 2010}
  1. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 4183) [ClassicSimilarity], result of:
            0.10888583 = score(doc=4183,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 4183, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
          0.041678336 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
            0.041678336 = score(doc=4183,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 4183, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
      0.5 = coord(1/2)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
    Date
    30. 1.2007 18:22:15
  2. Meadows, J.: Understanding information (2001) 0.07
    0.069225475 = product of:
      0.13845095 = sum of:
        0.13845095 = sum of:
          0.089826226 = weight(_text_:daten in 3067) [ClassicSimilarity], result of:
            0.089826226 = score(doc=3067,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.36810443 = fieldWeight in 3067, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3067)
          0.048624728 = weight(_text_:22 in 3067) [ClassicSimilarity], result of:
            0.048624728 = score(doc=3067,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.2708308 = fieldWeight in 3067, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3067)
      0.5 = coord(1/2)
    
    Abstract
    Die moderne Gesellschaft leidet an Reizüberflutung durch Fernsehen, Internet, Zeitschriften aller Art. Jack Meadows, Professor für Bibliotheks- und Informationswissenschaft setzt sich mit Definitionen zu Begriffen wie 'Data', 'Information', 'Communication' oder 'Knowledge' auseinander, die für uns alläglich geworden sind. wie verarbeiten wir den Fluss von wichtigen und unwichtigen Informationen, der täglich auf uns einströmt? Welche 'Daten' sind es für uns Wert, gespeichert zu werden, welche vergessen wir nach kurzer Zeit? Wann wird aus Information Wissen oder gar Weisheit? Das Buch ist eine grundlegende Einführung in das weitläufige Thema Information und Wissensmanagement
    Date
    15. 6.2002 19:22:01
  3. Alex, H.; Betz, A.; Heiner-Freiling, M.; Jackenkroll, M.; Mengel, T.; Preuss, M.: Dewey-Dezimalklassifikation : DDC 22 Deutsch. Übersichten (2005) 0.05
    0.053450193 = product of:
      0.10690039 = sum of:
        0.10690039 = sum of:
          0.05132927 = weight(_text_:daten in 4554) [ClassicSimilarity], result of:
            0.05132927 = score(doc=4554,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.21034539 = fieldWeight in 4554, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=4554)
          0.055571117 = weight(_text_:22 in 4554) [ClassicSimilarity], result of:
            0.055571117 = score(doc=4554,freq=8.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 4554, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=4554)
      0.5 = coord(1/2)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) ist Ende 2003 in der 22. Ausgabe der Standard Edition auf Englisch erschienen und wird genau zwei Jahre später nun auch auf Deutsch veröffentlicht. Nach Übersetzungen ins Französische, Italienische, Russische und Spanische ist unter Beteiligung der drei deutschsprachigen Länder und mit Unterstützung durch die Deutsche Forschungsgemeinschaft die Voraussetzung dafür geschaffen worden, dass diese international weit verbreitete Klassifikation auch in Deutschland, Österreich und der Schweiz heimisch werden kann. Die hier vorgelegten Übersichten, die die drei obersten Ebenen oder 1 000 Klassen der DDC umfassen, ermöglichen einen Einblick in die Gliederung der gesamten Klassifikation und sind in dieser Form für Bibliotheken und wissenschaftliche Einrichtungen frei verfügbar, während die tieferen Ebenen der DDC durch das Urheberrecht geschützt sind. Die vollständige Ausgabe der DDC 22 Deutsch erscheint 2005 im Verlag K. G. Saur. Mit dem Webservice Melvil bietet Die Deutsche Bibliothek ab Januar 2006 eine deutsche Version von WebDewey an, ergänzt um ein Recherchetool für das Retrieval DDC-erschlossener Daten. Die DDC 22 ist von einer an der Fachhochschule Köln angesiedelten Arbeitsgruppe ins Deutsche übersetzt worden, unterstützt von einemTeam von Fachreferentinnen und Fachreferenten an zahlreichen Bibliotheken des deutschen Sprachraums und fachlich beraten von der Expertengruppe DDC Deutsch. Die organisatorische Leitung des Projekts DDC Deutsch lag bei Der Deutschen Bibliothek als federführendem Mitglied des Konsortiums DDC Deutsch. Ab 2006 wird die Deutsche Nationalbibliografie vollständige DDC-Notationen mitliefern, bereits seit Bibliografiejahrgang 2004 folgen die Sachgruppen der Deutschen Nationalbibliografie einer auf den beiden obersten Ebenen der DDC basierenden Gliederung. Die hier vorgelegte Übersetzung der DDC wurde mit der Herausgeberin der DDC, Joan Mitchell (OCLC, Dublin/Ohio) und ihren Mitherausgebern an der Library of Congress abgestimmt, denen wir für ihre Unterstützung und Beratung herzlich danken. Die kurze Einführung in die Dewey-Dezimalklassifikation, die hier folgt, stellt das gesamte System der DDC vor, das mit seinen Haupt- und Hilfstafeln mehr als 60 000 Klassen umfasst. Die Möglichkeiten zur Erschließung differenzierterThemen gehen daher weit über die hier vorgelegten obersten Klassen der DDC hinaus und berücksichtigen viele moderne Teildisziplinen, die man in den Übersichten vielleicht vermisst. Bei der Verwendung der Übersichten ist zu beachten, dass aus drucktechnischen Gründen in einigen Fällen Klassen nur verkürzt wiedergegeben werden können und nur durch ihre Position innerhalb einer Folge von Klassen genau zu verstehen sind. Daher sollten für die Erschließung auch die vollständigen Klassenbenennungen herangezogen werden, die unter www.ddc-deutsch.de im Netz zur Verfügung stehen.
  4. Fürste, F.M.: Linked Open Library Data : Bibliographische Daten und ihre Zugänglichkeit im Web der Daten (2009) 0.05
    0.050214387 = product of:
      0.100428775 = sum of:
        0.100428775 = product of:
          0.20085755 = sum of:
            0.20085755 = weight(_text_:daten in 2900) [ClassicSimilarity], result of:
              0.20085755 = score(doc=2900,freq=10.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.8231065 = fieldWeight in 2900, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2900)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Möglichkeit, bibliographische Daten in einem gemeinsamen Datenmodell miteinander in beliebige Beziehungen setzen zu können, bietet die notwendigen Voraussetzungen, bisherige Schranken externer Datenkommunikation abzutragen, die Indexierung und Verarbeitung bibliographischer Daten durch Suchmaschinen zu ermöglichen. Das Buch stellt dar wie Linked Open Data als Alternative eines nahtlosen Trägermodells unter Harmonisierung der Vielzahl mittlerweile entstandener Formatstandards und ihren implizierten Datenmodellen (MARC, METS, Dublin Core.) geeignet wäre, die Bedürfnisse einer großen Nutzerschaft zu bedienen. Unter positiver Resonanz der Fachöffentlichkeit haben bereits einige bibliothekarische Einrichtungen den Weg von Open Data beschritten.
    Content
    Vgl.: http://www.b-i-t-online.de/daten/bitinnovativ.php#band33.
  5. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.05
    0.050188057 = product of:
      0.100376114 = sum of:
        0.100376114 = sum of:
          0.07259055 = weight(_text_:daten in 92) [ClassicSimilarity], result of:
            0.07259055 = score(doc=92,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.2974733 = fieldWeight in 92, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=92)
          0.027785558 = weight(_text_:22 in 92) [ClassicSimilarity], result of:
            0.027785558 = score(doc=92,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 92, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=92)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
  6. Favre-Bulle, B.: Information und Zusammenhang : Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation (2001) 0.05
    0.050188057 = product of:
      0.100376114 = sum of:
        0.100376114 = sum of:
          0.07259055 = weight(_text_:daten in 1783) [ClassicSimilarity], result of:
            0.07259055 = score(doc=1783,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.2974733 = fieldWeight in 1783, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=1783)
          0.027785558 = weight(_text_:22 in 1783) [ClassicSimilarity], result of:
            0.027785558 = score(doc=1783,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 1783, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1783)
      0.5 = coord(1/2)
    
    Abstract
    Im Zeitalter der elektronischen Medien ist "Information" zu einem schillernden Schlagwort geworden. Sie legt die Basis für Entscheidungsprozesse und bestimmt unser Denken und Handeln. Doch was ist Information und wie funktioniert sie? Das Buch stellt das Thema erstmals aus der Sicht der Informationstheorie, der Wahrnehmung, des Denkens und der Sprache dar. Auf interdisziplinärer Ebene wird der Informationsbegriff erarbeitet. Wie erlangen Daten Sinn und Bedeutung? Das Werk behandelt die Natur der Informationsflüsse und diskutiert die Rolle des Kontextes. Zahlreiche Beispiele und Abbildungen unterstützen die Erläuterungen. Anhand des Japanischen wird der dramatische Einfluß des sprachlichen Kontextes auf die inhaltliche Interpretation verdeutlicht. Der Leser erhält Einblicke in die Mechanismen der Informationsflüsse und kann damit rascher die richtigen Entscheidungen treffen. Er vermeidet Mißverständnisse, indem er die Rolle des Zusammenhangs in seinen Denkprozessen beachtet.
    Content
    Absolute und relative Perspektiven: Die Sterne des Orion; Babylonische Informationsverwirrungen; Eine Navigationshilfe.- Information: Informationsparadigmen; Information in der Nachrichtentechnik; Signale, Daten, Information und Wissen; Information und Bedeutung.- Konnektionistische Modelle: Ein konnektionistisches Informationsmodell; Informationsfluß im Netzmodell.- Wissen: Definition von Wissen; Klassifizierung von Wissen; Wissensrepräsentation.- Wahrnehmung und Denken: Kognition; Paradigmen und Modelle; Wahrnehmung; Kognitive Systeme und Kontext; Denken.- Kontext: Was ist Kontext?; Eine Kontext-Metapher; Die Logik und HOLMES; Das Konzept ist(c, p).- Sprache: Die sprachliche Dimension; Struktur der Sprache; Sprache als Medium der Information; Sprache und Kontext 1: Air Traffic Control; Sprache und Kontext 2: Japanisch. - Enthält Abschnitte zu: Kommunikation; Medien; Medienwissenschaft; Kognitionswissenschaft; Informatik; Wirtschaft
    Date
    22. 3.2008 14:53:43
  7. Bodendorf, F.: Daten -und Wissensmanagement (2003) 0.04
    0.044913113 = product of:
      0.089826226 = sum of:
        0.089826226 = product of:
          0.17965245 = sum of:
            0.17965245 = weight(_text_:daten in 1285) [ClassicSimilarity], result of:
              0.17965245 = score(doc=1285,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.73620886 = fieldWeight in 1285, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1285)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Buch gibt einen zusammenfassenden Überblick über die modernen Möglichkeiten des Daten- und Wissensmanagements. Es stellt die wichtigsten Konzepte zur Organisation von Daten und Wissen in Unternehmen dar und skizziert die relevanten technischen Ansätze zur wissensorientierten Informationsverarbeitung. Dabei werden relationale Datenmodelle, Data-Warehouse-Konzepte und Dokumenten- und Content Management ebenso behandelt wie alle wichtigen Aspekte des Knowledge Mangements. Schließlich wird ein Überblick gegeben über die einschlägigen wissensorientierten Systeme, von Expertensystemen über FuzzyLogic-Systeme bis hin zu künstlichen neuronalen Netzen und genetischen Algorithmen. Der Leser bekommt so schnell einen qualifizierten Einblick sowohl in die methodischen und technischen Ansätze als auch in praxisrelevante Erscheinungsformen des Daten- und Wissensmanangements.
  8. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.04
    0.039557412 = product of:
      0.079114825 = sum of:
        0.079114825 = sum of:
          0.05132927 = weight(_text_:daten in 1767) [ClassicSimilarity], result of:
            0.05132927 = score(doc=1767,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.21034539 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
          0.027785558 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
            0.027785558 = score(doc=1767,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
      0.5 = coord(1/2)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
  9. Spitta, T.: Informationswirtschaft : eine Einführung (2006) 0.04
    0.03929079 = product of:
      0.07858158 = sum of:
        0.07858158 = product of:
          0.15716316 = sum of:
            0.15716316 = weight(_text_:daten in 636) [ClassicSimilarity], result of:
              0.15716316 = score(doc=636,freq=48.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6440486 = fieldWeight in 636, product of:
                  6.928203 = tf(freq=48.0), with freq of:
                    48.0 = termFreq=48.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=636)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieses Lehrbuch für Studierende der Wirtschaftswissenschaften im Grundstudium bzw. in Bachelor-Studiengängen behandelt umfassend die betriebswirtschaftlichen und methodischen Grundlagen des Produktionsfaktors Information. Information ist im betrieblichen Kontext konkretisiert durch die Ressource Daten. Das Buch vermittelt anschaulich Prozesse (wie entstehen Daten?), Strukturen (wie sind Daten systematisiert und aufgebaut?) und Inhalte (was bedeuten die Daten betriebswirtschaftlich?). Es verwendet UML 2.0 als grafische Sprache und erläutert die grundlegenden Konzepte von XML. Die umfangreichen Beispiele basieren auf realen betrieblichen Fällen.
    Footnote
    Rez. in IWP 58(2007) H.5/6, S.382 (W. Ratzek): "Bereits im Vorwort betont Thorsten Spitta - mit Bezug auf Heinen: "Es scheint an der Zeit, den Produktionsfaktor Information als Grundlage wieder in die Betriebswirtschaftslehre aufzunehmen (...)". Dieser Bezug, so Spitta, fehle in fast allen betrieblichen Einführungen. Die Konsequenz darauf sei, dass "Information" keine Basis mehr habe. Dieses Vorhaben weckt natürlich auch das Interesse von BID-Studierenden und -Professional, da offenbar beide Professionen (BID und BWL) das Arbeitsgebiet "Informationswirtschaft" bearbeiten. Ebenfalls im Vorwort stellt Spitta die Rolle von Software und Daten heraus: "Während Software sich mit der Zeit verändert oder ausgetauscht wird, sind die Daten eine langfristig zu pflegende Ressource jedes Unternehmens." Die Qualität der Datenbasis ist, nach Spitta, ein wichtiger Baustein, um ein Unternehmen erfolgreich zu führen. Somit wird das Qualitätsniveau dieser Ressource - ob nun Daten oder Information genannt - zu einem Produktionsfaktor. Etwas, so Spitta, was man nicht kaufen könne wie z.B. Software. Für den BID-Interessierten sollte nun die Frage nach dem Unterschied von Daten und Information folgen. In den Kapiteln 3 "Daten" und 4 "Kommunikation, Information und Wissen" geht Spitta dieser Frage nach. "Daten" werden, wie in der Informatik üblich und durchaus sinnvoll, als Alphabet definiert, das heißt als ein Zeichenvorrat, für den eine Verarbeitungsvorschrift definiert ist. (S. 25-28) Kommunikation ist, vereinfacht dargestellt, dann das Senden und Empfangen von Nachrichten (basierend auf einem mehr oder weniger deckungsgleichen Zeichenvorrat). Die in der betriebswirtschaftlichen Praxis gängige Definition von W. Wittmann, dass Information "zweckorientiertes Wissen" sei, lehnt Spitta ab, "da sie einen unscharfen Begriff durch einen anderen erklärt, der noch unschärfer ist" (S. 45).
    Stattdessen präferiert er in erster Näherung A. Endres' Definition, die auch von vielen Wirtschaftsinformatikern - und auch von BID-Fachleuten - akzeptiert wird: "Information, so Spitta, sind interpretierbare, d.h. mit Bedeutung verknüpfte, meist neue Nachrichten, die von einem Empfänger für das Verfolgen seiner Ziele als nützlich gewertet werden." (S. 44, Hervor. i. Org.). Damit kann sich Spitta jedoch noch nicht begnügen, da er Bezug zur Informatik, insbesondere jedoch zur Wirtschaftsinformatik oder Informationswirtschaft herstellen muss. A. Endres definiert Information als ein Tripel I = (A*, S, K), "wobei A* (...) eine Menge von Wörtern (...) über einem Alphabet A, S eine Menge von Symbolen und K einen Kontext bedeutet" (S. 45) "Information", so Spitta, wäre dann "eine Nachricht über einem definierten Alphabet und anderen Symbolen, die für den Empfänger neu und relevant ist und deren Kontext er kennt." (S. 45) In der betrieblichen Praxis sind jedoch mehrere Akteure involviert, sodass es sinnvoll ist "Datenspeicher als Puffer für Nachrichten" (S. 46) einzuführen. Nun fehlt noch eine Definition von Wissen, um betriebliche Prozesse computergestützt abzubilden. "Wissen ist wegen seiner impliziten Bestandteile ebenso individualisiert wie Information. Explizites Wissen basiert auf Daten. Implizites Wissen kann explizit gemacht werden, wenn wir über einen allgemein verstehbaren Formalismus zur Beschreibung verfügen. Der Unterschied zur Information ist die Handlungskompetenz und die mehrfache Verwendbarkeit der zur Grunde liegenden Daten, die im Allgemeinen nur einmal (individuelle) Information sein können." (S. 50, Hervor. i. Orig.) Im Kapitel 5 stehen die "Inhalte betrieblicher Daten" im Mittelpunkt, wo es unter anderem um Grunddaten (wie Sachanlagen), Vorgangsdaten (wie aufzeichnungspflichtige Vorgänge) oder abgeleitete Daten (wie Führungsinformation) geht. Das 6. Kapitel "Die Struktur betrieblicher Daten" geht auf verschiedene Datenmodelle, wie das Relationsmodell, das grafische Objektmodell oder das Vorgehensmodell zur Datenmodellierung ein. Im 7. Kapitel geht es um "Anwendungssysteme", d.h. um betriebliche Informationssysteme und deren Strukturierungsmöglichkeiten.
    Ein betriebliches Informationssystem besteht aus einem Aufgabenträger, der sowohl aus einer maschinellen (Software und Daten) als auch einer menschlichen (Datenerzeuger und Entscheider) Komponente besteht. (S. 107f.) "Datenverantwortung und Organisation" im Mittelpunkt erörtert Spitta im vorletzten Kapitel. Hier werden unter anderem behandelt: "Zugriffsrechte als Pflichten" (Benutzerverwaltung), "Pflege von Grunddaten", "Erzeugung von Vorgangsdaten" oder "Abgeleitete Daten" (mittels SQL). Den Abschluss bildet das Kapitel "Die absehbare Zukunft: Grundidee von XML", wobei die folgenden drei Einsatzgebiete besprochen werden: "Die Formulierung von strukturierten Daten zwecks einfacher Kommunikation. Die Behandlung semistrukturierter Daten mit einem zu archivierenden Layout. Die Abbildung der Struktur von Dokumenten." (S. 139) Thorsten Spittas Informationswirtschaft "vermittelt", wie es auf dem Klappentext heißt, "anschaulich Prozesse (wie entstehen Daten), Strukturen (wie sind Daten systematisiert) und Inhalte (wie sind Daten systematisiert und aufgebaut). Fragestellungen, die auch BIDProfessionals beschäftigten. Eine sinnvolle Ergänzung wäre die induktive Herangehensweise (Basis Daten) mit der deduktiven Herangehensweise (z.B. Kundensicht) zu verbinden, was in Klaus Norths "Wissensorientierter Unternehmensführung" (Wiesbaden 2005) überzeugend in Angriff genommen wird. Da Prof. Dr.-Ing. Thorsten Spitta den Lehrstuhl für Angewandte Informatik/ Wirtschaftsinformatik an der Universität Bielefeld innehat, wählt er konsequenterweise, das Informatik-Paradigma, zeigt sich aber - zumindest in den Kapiteln 3 (Daten) und 4 (Kommunikation, Information und Wissen) informiert darüber, dass es auch andere Sichten der Informations- und Wissensgenerierung gibt. "Informationswirtschaft" ist auch für jene bestens geeignet, die nur über geringe SQL-, UML oder XML-Kenntnisse verfügen. 48 Abbildungen, 35 Tabellen, abschnittsweise Zusammenfassungen und ein ausführliches Sachverzeichnis ermöglichen auch einen schnellen Einblick in bestimmte Aspekte der betrieblichen Informationswirtschaft."
  10. Managing cataloging and the organization of information : philosophies, practices and challenges at the onset of the 21st century (2000) 0.03
    0.034612738 = product of:
      0.069225475 = sum of:
        0.069225475 = sum of:
          0.044913113 = weight(_text_:daten in 238) [ClassicSimilarity], result of:
            0.044913113 = score(doc=238,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.18405221 = fieldWeight in 238, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.02734375 = fieldNorm(doc=238)
          0.024312364 = weight(_text_:22 in 238) [ClassicSimilarity], result of:
            0.024312364 = score(doc=238,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1354154 = fieldWeight in 238, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=238)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in ZfBB 51(2004) H.1, S.54-55 (G. Pflug): "Unter dem wachsenden Einfluss der Informationstechnologie auf den Bibliotheksbereich nimmt die Katalogisierung eine Schlüsselstellung ein. Das vorliegende Werk gliedert sich in zwei Teile. Der erste Abschnitt ist mit »National Libraries« überschrieben, befasst sich jedoch nur mit der Library of Congress und der National Library of Canada. Ihm folgen Artikel über »Libraries around the world«. Dabei fälltjedoch auf, dass diese Studien zwar Bibliotheken in Großbritannien, Australien, Mittel- und Südamerika und selbst Afrika (Botswana) behandeln, nicht jedoch aus Kontinentaleuropa, trotz entsprechender Aktivitäten etwa in den Niederlanden, in Frankreich oder den deutschsprachigen Ländern. Nur DOBIS/LIBIS wird erwähnt, aber nur, weil es für kurze Zeit die kanadische Entwicklung beeinflusst hat. Im zweiten Teil kommen Katalogisierungsfachleute aus vier Spezial- und neun akademischen Bibliotheken - ausschließlich aus Nordamerika und Großbritannien - zu Wort. So enthält das Werk in 22 Beispielen Berichte über individuelle und regionale Lösungen. Dabei steht die Frage im Vordergrund, zu welchen Änderungen in der Katalogisierungs- und Sacherschließungspraxis die neuen elektronischen Techniken geführt haben. So streben z.B. die englischen Hochschulbibliotheken ein koordiniertes System an. Mit dem Übergang der British Library zu MARC 21 wird das Katalogsystem in Großbritannien nachhaltig beeinflusst - um nur zwei nahe liegende Beispiele zu nennen. Insgesamt werden drei Aspekte behandelt, die Automatisierungstechnik; die dabei einzusetzende Kooperation und das Outsourcing - nicht nur durch Übernahme von Daten anderer Bibliotheken oder durch Verbundsysteme, vor allem der Library of Congress, sondern auch durch Buchhandelsfirmen wie Blackwell North America Authority Control Service. In der Frage der Sacherschließung befassen sich die Beiträge mit den im amerikanischen Bereich üblichen Klassifikationssystemen, vor allem der Colon Classification, Dewey in seinen beiden Formen oder der Library of Congress Classification. Für die deutsche Diskussion sind diese Aspekte vor allem wegen des Übergangs der Deutschen Bibliothek in ihrer Nationalbibliografie zur DDC von großem Interesse (vgl. Magda Heiner-Freiling: Die DDC in der Deutschen Nationalbibliografie. In Dialog mit Bibliotheken. 15. 2003, Nr. 3, S. 8-13). Doch stellen auch die unterschiedlichen Überlegungen zur alphabetischen Katalogisierung, verbunden mit den da zugehörigen Datenbanken, einen interessanten Beitrag zur augenblicklichen Diskussion in Deutschland dar, da auch hier seit einigen Jahren die Katalogisierung nach RAK und ihre Ablösung eine lebhafte Diskussion ausgelöst hat, wie unter anderem der zusammenfassende Beitrag von Elisabeth Niggemann in: Dialog mit Bibliotheken (15. 2003, Nr. 2, S. 4-8) zeigt. Auch die angloamerikanischen und die mit ihnen zum Beispiel in Mexiko, Südamerika oder Australien verbundenen Bibliotheken - das zeigt das Buch deutlich - diskutieren die Frage der alphabetischen Katalogisierung kontrovers. So werden z.B. neben den dominanten AACR-Regeln mit ihrer Weiterentwicklung mehr als zehn andere Katalogisierungssysteme und rund 20 Online-Datenbanken behandelt. Damit liefert das Buch für die Diskussion in Deutschland und die anstehenden Entscheidungen in seiner Grundtendenz wie in den unterschiedlichen-auch widersprüchlichen-Aspekten dereinzelnen Beiträge wertvolle Anregungen."
  11. Bibliotheks- und Dokumentationswesen : Gestaltung und Erschließung von Dokumenten, Bibliotheksmanagement, Codierungs- und Nummerungssysteme, Bestandserhaltung in Archiven und Bibliotheken (2002) 0.03
    0.03425773 = product of:
      0.06851546 = sum of:
        0.06851546 = sum of:
          0.044452455 = weight(_text_:daten in 1704) [ClassicSimilarity], result of:
            0.044452455 = score(doc=1704,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.18216446 = fieldWeight in 1704, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.015625 = fieldNorm(doc=1704)
          0.024063 = weight(_text_:22 in 1704) [ClassicSimilarity], result of:
            0.024063 = score(doc=1704,freq=6.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1340265 = fieldWeight in 1704, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=1704)
      0.5 = coord(1/2)
    
    Abstract
    Am Anfang war das Wort. Sehr viel später erfand ein gewisser Herr Gutenberg ein Handgießinstrument zur Herstellung von Drucktypen. Und was sich daraus entwickelte, ist bekannt: Die moderne Informations- und Kommunikationsgesellschaft, deren Dynamik nicht zuletzt von der Effektivität der Daten-, Dokumenten- und Schriftgutverwaltung abhängt. Beim DIN-Taschenbuch 343 Bibliotheks- und Dokumentationswesen handelt es sich um ein Normenkompendium, das genau diese Verfahren aufgreift: Es stellt der interessierten Fachöffentlichkeit insgesamt 22 nationale und internationale Normen der Bereiche "Gestaltung und Erschließung von Dokumenten", "Bibliotheksmanagement", "Codierungs- und Nummerungssysteme" sowie "Bestandserhaltung in Archiven und Bibliotheken" vor. Die Auswahl der Normen verdeutlicht zweierlei: Zum einen den Einfluss der sich ständig weiterentwickelnden und dabei konvergierenden Technologien, der u.a. das Publizieren und die Datenrecherche beeinflusst. Zum zweiten die Notwendigkeit, neue Anforderungen zu berücksichtigen, die sich aus dem stetig zunehmenden internationalen Datenaustausch ergeben. Das DIN-Taschenbuch verschafft einen genauen Überblick über den Zusammenhang zwischen einschlägigen DIN- und ISO-Normen und klärt über Namencodes von Ländern und deren Untereinheiten auf (DIN ISO 3166-2:2001). Komplettiert wird das Werk durch den vollständigen Abdruck des DINFachberichts 13 "Bau- und Nutzungplanung von wissenschaftlichen Bibliotheken". Dort werden Bibliotheken als Servicezentren verstanden, die zunehmend digitalisierte Informationsquellen bereit stellen.
    Content
    Enthält 22 vollständig abgedruckte nationale und internationale Normen für die Bereiche Archiv-, Bibliotheks-, Dokumentations-, Museums- und Verlagswesen
    Footnote
    Rez. in: ABI-Technik 21(2002) H.3, S.294-295 (K. Weishaupt); "Im Deutschen Institut für Normung ist der Normenausschuss Bibliotheks- und Dokumentationswesen (NABD) verantwortlich für die nationale Normung für das Erstellen, Publizieren, Erschließen, Erhalten, Wiederauffinden, Vermitteln und die Nutzung von Dokumenten, Daten und Schriftgut für die Bereiche Archiv-, Bibliotheks, Dokumentations-, Museumsund Verlagswesen. Mit dem neuen DIN-Taschenbuch will er einen Überblick über die DIN-Normen geben, die in den letzten Jahren auf internationaler Ebene unter aktiver deutscher Mitarbeit veröffentlicht, dann als DIN-Normen übernommen worden sind und die den veränderten Anforderungen der Informations- und Kommunikationsgesellschaft Rechnung tragen - so die eigenen Angaben des Ausschusses im Vorwort (S. XI). Vor dem Hintergrund dieses recht offen formulierten Anspruches kommt es zu einer Zusammenstellung von 22 Normen, die auf den ersten Blick recht bunt gemischt wirkt: Abgedruckt sind Normen zur Erstellung und Weiterentwicklung von Thesauri, zu Titelangaben von Dokumenten, Kürzungs- und Transliterationsregeln, Sortierregeln, Abschnittsnummerierungen, Ländernamen, zur ISBN, ISSN sowie den Standardnummern ISMN und ISWC für Musikalien, zu Leistungsindikatoren für Bibliotheken und zu Lebensdauer-Klassen von Papier und Karton, Anforderungen an die Aufbewahrung von Archiv- und Bibliotheksgut und zur Alterungsbeständigkeit von Schriften. Der DIN-Fachbericht "Bau- und Nutzungsplanung von wissenschaftlichen Bibliotheken" rundet das Werk ab. Negativ ausgedrückt: Es wird niemanden geben, der für seinen beruflichen Alltag all diese Normen benötigt. Die positive Sicht: Das DIN-Taschenbuch deckt so viele Themen ab, dass der Kreis der Interessierten recht groß sein dürfte. Auf alle Fälle ist beeindruckend, zu wie vielen Themen aus den Bereich des Bibliotheks- und Dokumentationswesens es Normen gibt; vermutlich ist deren Existenz nicht einmal der Fachöffentlichkeit in vollem Umfang bekannt. Ein solches Beispiel ist DIN 1505, Teil 2: "Titelangaben von Dokumenten: Zitierregeln"; diese Norm wendet sich "an Autoren, Verleger und Redakteure und soll für Literaturzusammenstellungen, für Literaturverzeichnisse am Ende einer Schrift bzw. eines Beitrags, im Kontext oder in Fußnoten benutzt werden" (S. 38). Damit ist sie praktisch für alle relevant, die wissenschaftlich arbeiten und Texte schreiben - aber kaum jemand kennt diese Norm! Viele Zeitschriften und Fachgesellschaften haben ihre eigenen Regeln, nach denen zitiert werden soll. Im Institut Arbeit und Technik in Gelsenkirchen ist vor einigen Jahren mit Förderung der Deutschen Forschungsgemeinschaft die Software LibLink entwickelt worden, mit der aus MAB-Daten, die aus einem Bibliothekskatalog exportiert worden waren, automatisiert Literaturverzeichnisse für wissenschaftliche Texte erstellt werden sollten.
  12. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.03
    0.02966806 = product of:
      0.05933612 = sum of:
        0.05933612 = sum of:
          0.038496953 = weight(_text_:daten in 729) [ClassicSimilarity], result of:
            0.038496953 = score(doc=729,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.15775904 = fieldWeight in 729, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0234375 = fieldNorm(doc=729)
          0.020839168 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
            0.020839168 = score(doc=729,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.116070345 = fieldWeight in 729, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=729)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Date
    22. 6.2005 15:12:11
  13. Wissensorganisation und Edutainment : Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001 (2004) 0.03
    0.02966806 = product of:
      0.05933612 = sum of:
        0.05933612 = sum of:
          0.038496953 = weight(_text_:daten in 1442) [ClassicSimilarity], result of:
            0.038496953 = score(doc=1442,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.15775904 = fieldWeight in 1442, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1442)
          0.020839168 = weight(_text_:22 in 1442) [ClassicSimilarity], result of:
            0.020839168 = score(doc=1442,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.116070345 = fieldWeight in 1442, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1442)
      0.5 = coord(1/2)
    
    Content
    Enthält die Beiträge: 1. Wissensgesellschaft Michael NIEHAUS: Durch ein Meer von Unwägbarkeiten - Metaphorik in der Wissensgesellschaft S.3 Karsten WEBER: Aufgaben für eine (globale) Wissensgesellschaft oder "Welcome to the new IT? S.9 Katy TEUBENER: Chronos & Kairos. Inhaltsorganisation und Zeitkultur im Internet S.22 Klaus KRAEMER: Wissen und Nachhaltigkeit. Wissensasymmetrien als Problem einer nachhaltigen Entwicklung S.30 2. Lehre und Lernen Gehard BUDIN: Wissensorganisation als Gestaltungsprinzip virtuellen Lernens - epistemische, kommunikative und methodische Anforderungen S.39 Christan SWERTZ: Webdidaktik: Effiziente Inhaltsproduktion für netzbasierte Trainings S.49 Ingrid LOHMANN: Cognitive Mapping im Cyberpunk - Uber Postmoderne und die Transformation eines für so gut wie tot erklärten Literaturgenres zum Bildungstitel S.54 Rudolf W. KECK, Stefanie KOLLMANN, Christian RITZI: Pictura Paedagogica Online - Konzeption und Verwirklichung S.65 Jadranka LASIC-LASIC, Aida SLAVIC, Mihaela BANEK: Gemeinsame Ausbildung der IT Spezialisten an der Universität Zagreb: Vorteile und Probleme S.76 3. Informationsdesign und Visualisierung Maximilian EIBL, Thomas MANDL: Die Qualität von Visualisierungen: Eine Methode zum Vergleich zweidimensionaler Karten S.89 Udo L. FIGGE: Technische Anleitungen und der Erwerb kohärenten Wissens S.116 Monika WITSCH: Ästhetische Zeichenanalyse - eine Methode zur Analyse fundamentalistischer Agitation im Internet S.123 Oliver GERSTHEIMER, Christian LUPP: Systemdesign - Wissen um den Menschen: Bedürfnisorientierte Produktentwicklung im Mobile Business S.135 Philip ZERWECK: Mehrdimensionale Ordnungssysteme im virtuellen Raum anhand eines Desktops S.141
    4. Wissensmanagement und Wissenserschließung René JORNA: Organizational Forms and Knowledge Types S.149 Petra BOSCH-SIJTSERRA: The Virtual Organisation and Knowledge Development: A Case of Expectations S.160 Stefan SMOLNIK, Ludmig NASTARSKY: K-Discovery: Identifikation von verteilten Wissensstrukturen in einer prozessorientierten Groupware-Umgebung S.171 Alexander SIGEL: Wissensorganisation, Topic Maps und Ontology Engineering: Die Verbindung bewährter Begriffsstrukuren mit aktueller XML-Technologie S.185 Gerhard RAHMSTORF: Strukturierung von inhaltlichen Daten: Topic Maps und Concepto S.194 Daniella SAMOWSKI: Informationsdienstleistungen und multimediale Wissensorganisation für die Filmwissenschaft und den Medienstandort Babelsberg oder: Was hat Big Brother mit einer Hochschulbibliothek zu tun? S.207 Harald KLEIN: Web Content Mining S.217 5. Wissensportale Peter HABER, Jan HODEL: Die History Toolbox der Universität Basel S.225 H. Peter OHLY: Gestaltungsprinzipien bei sozialwissenschaftlichen Wissensportalen im Internet S.234 Markus QUANDT: souinet.de - ein Internetjournal mit Berichten aus den Sozialwissenschaften. Ziele und Konzept einer neuen Informationsplattform S.247 Jörn SIEGLERSCHMIDT: Das Museum als Interface S.264
  14. Breidbach, O.: Neue Wissensordnungen : wie aus Informationen und Nachrichten kulturelles Wissen entsteht (2008) 0.03
    0.02966806 = product of:
      0.05933612 = sum of:
        0.05933612 = sum of:
          0.038496953 = weight(_text_:daten in 3037) [ClassicSimilarity], result of:
            0.038496953 = score(doc=3037,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.15775904 = fieldWeight in 3037, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3037)
          0.020839168 = weight(_text_:22 in 3037) [ClassicSimilarity], result of:
            0.020839168 = score(doc=3037,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.116070345 = fieldWeight in 3037, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3037)
      0.5 = coord(1/2)
    
    Abstract
    Anstelle von materiellen Dingen wird heute in unserer Gesellschaft vorwiegend Wissen produziert. Kultur als der Zusammenhang aller möglichen Interaktionen in einer menschlichen Gesellschaft fixiert und transformiert das historisch erwachsene Wissen, in dem sich diese Kultur etabliert. Wissen ist dabei auch nicht einfach die Summe der einzelnen Köpfe dieser Kultur, da diese ihr Wissen ja immer erst im Zusammenhang der Kultur, in der sie agieren, gewinnen und fixieren können. Was sind dann aber die Kriterien, an denen Wissen und Information zu bemessen sind, und inwieweit sind Wissen und Information dabei dann überhaupt voneinander abzugrenzen? Informationen sind zunächst einfach nur Mitteilungen oder Nachrichten. Solche Informationen sind, suche ich sie zu verwenden, dann aber auch zu bewerten, also auf den Gesamtkontext der schon verfügbaren Informationen zu beziehen. Diese Informationen werden demnach einander zugeordnet. Erst in dieser Ordnung entsteht Wissen. Schließlich werden in der Strukturierung der Informationen die Nachrichten zu den Teilen eines Ganzen, in dem sich ein Bild formiert, was mehr ist als die Summe seiner Teile. Der Autor untersucht die Bezugsrahmen, in denen Wissen entsteht. Dabei entdeckt er eine Art übergeordnete Instanz, die einzelne Daten zu bewerten erlaubt. Der Text berührt sowohl alte philosophische Traditionen wie auch - ausgehend von neurobiologischen Befunden - die mathematisch-technischen Funktionen einer modernen Wissenschaftskultur.
    Date
    22. 7.2009 13:43:50
  15. Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel] (2007) 0.03
    0.028319996 = product of:
      0.05663999 = sum of:
        0.05663999 = sum of:
          0.032080796 = weight(_text_:daten in 4064) [ClassicSimilarity], result of:
            0.032080796 = score(doc=4064,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.13146587 = fieldWeight in 4064, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=4064)
          0.024559196 = weight(_text_:22 in 4064) [ClassicSimilarity], result of:
            0.024559196 = score(doc=4064,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.13679022 = fieldWeight in 4064, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=4064)
      0.5 = coord(1/2)
    
    Content
    Enthält die Beiträge: Ernst Pöppel: Wissen - und wie es kommuniziert werden kann. - Anne-Katharina Weilenmann: Von Cyberscience zu e-Science. - Katrin Weller, Indra Mainz, Ingo Paulsen, Dominic Mainz: Semantisches und vernetztes Wissensmanagement für Forschung und Wissenschaft. - Ute Rusnak, Matthias Razum, Leni Helmes: Wissensvernetzung im Forschungsprozess. - Elena Semenova, Martin Stricker: Eine Ontologie der Wissenschaftsdisziplinen. Entwicklung eines Instrumentariums für die Wissenskommunikation. - Peter Haber, Jan Hodel: Historische Fachkommunikation im Wandel. Analysen und Trends. - Lydia Bauer, Nadja Böller, Josef Herget, Sonja Hierl: Konzepte zur Förderung der Wissenschaftskommunikation: Der Churer Ansatz zur Vermittlung von kollaborativen Kompetenzen. - Susanne von liter: Wissenschaftskommunikation in der Entwicklungsforschung/Entwicklungszusammenarbeit Web2.0 und Communities of Practice - ein Beitrag aus der Praxis. - Steffen Leich-Nienhaus: Wissenschaftliche Informationsversorgung am modernen digitalen Arbeitsplatz. - Christian Hänger, Christine Krätzsch: Collaborative Tagging als neuer Service von Hochschulbibliotheken. - Christoph Bläsi: Mobile IT in kleinen und mittleren Medienunternehmen zur Prozess- und Serviceverbesserung. - Michael Diepenbroek, Hannes Grobe: PANGAEA® als vernetztes Verlags- und Bibliothekssystem für wissenschaftliche Daten. - Jan Brase, Jens Klump: Zitierfähige Datensätze: Primärdaten-Management durch DOls. - Harald Krottmaier: Die Systemarchitektur von PROBADO: Der allgemeine Zugriff auf Repositorien mit nicht-textuellen Inhalten. - Annette Holtkamp: Open Access Publishing in der Hochenergiephysik: Das SCOAP3 Projekt. - Wiebke Oeltjen: Metadaten-Management mit MyCoRe. - Karin Weishaupt: Open-Access-Zeitschriften als neue Form wissenschaftlicher Kommunikation: Vorbehalte und Vorschläge für Maßnahmen zur Akzeptanzsteigerung. - Wolfgang Glänzel, Koenraad Debackere: Bibliometrie zwischen Forschung und Dienstleistung. - Patrick Vanouplines, Ronald Beullens: Merging information sources to obtain the impact factor of open access journals. - Dirk Tunger: Bibliometrie als Teil eines Trenderkennungs-Systems in der Naturwissenschaft. - Milos Jovanovic: Indicators for Footprints through science - Designing the Journal Application Level (JAL). - James Pringle: The ISl Web of Knowledge as a Management Tool. - Show-Ling Lee-Müller, Gerd Schumacher: Einsatz bibliometrischer Analysen im EU-Projekt zur Technologiefrüherkennung SMART. - Henning Möller: Messen, Steuern, Regeln - zum Controlling der Helmhoitz-Forschung
    Date
    20. 1.2018 20:22:16
    Footnote
    Die letzten beiden Teile des Kongressbandes behandeln die Möglichkeiten der Bibliometrie zum Handling des sich explosionsartig vermehrenden Wissens sowie der Einsatz solcher Technologien als Trenderkennungssystem. Zuletzt behandelt ein Artikel die Evaluation der Helmholtz-Einrichtungen. Am Schluss befindet sich noch ein sechsseitiges Register, das sehr hilfreich und für einen Kongressband keineswegs selbstverständlich ist. Vielleicht sollte noch auf den als Einleitung abgedruckten, überaus lesenswerten Festvortrag von Ernst Pöppel, Professor für medizinische Psychologie aus München, hingewiesen werden, der die verschiedenen Formen des Wissens allgemeinverständlich aus Sicht der Hirnforschung darstellt. Hervorzuheben ist noch, dass die Publikation kostenlos über den Publikationsserver des FZ Jülich bezogen werden kann, eine Tatsache, die sich offensichtlich nicht herumgesprochen hat, da bei einer Suche über den Karlsruher Virtuellen Katalog (Stand: 22. April 2008) dieses »Exemplar« nicht gefunden wurde. Als höchstes der Gefühle bietet der Südwestverbund bei »elektronische Referenz« einen Link auf das Inhaltsverzeichnis. Vielleicht erbarmt sich pro Verbund jemand und nimmt die elektronische Version auf."
  16. Trauth, E.M.: Qualitative research in IS : issues and trends (2001) 0.03
    0.027785558 = product of:
      0.055571117 = sum of:
        0.055571117 = product of:
          0.11114223 = sum of:
            0.11114223 = weight(_text_:22 in 5848) [ClassicSimilarity], result of:
              0.11114223 = score(doc=5848,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.61904186 = fieldWeight in 5848, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5848)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    25. 3.2003 15:35:22
  17. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.03
    0.027785558 = product of:
      0.055571117 = sum of:
        0.055571117 = product of:
          0.11114223 = sum of:
            0.11114223 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.11114223 = score(doc=4686,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    27.11.2005 18:04:22
  18. Burd, B.: Java und XML für Dummies (2003) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 1694) [ClassicSimilarity], result of:
              0.10888583 = score(doc=1694,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 1694, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1694)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
  19. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2007) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 1841) [ClassicSimilarity], result of:
              0.10888583 = score(doc=1841,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 1841, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1841)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
  20. Ester, M.; Sander, J.: Knowledge discovery in databases : Techniken und Anwendungen (2000) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 1374) [ClassicSimilarity], result of:
              0.10265854 = score(doc=1374,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 1374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1374)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Knowledge Discovery in Databases (KDD) ist ein aktuelles Forschungs- und Anwendungsgebiet der Informatik. Ziel des KDD ist es, selbständig entscheidungsrelevante, aber bisher unbekannte Zusammenhänge und Verknüpfungen in den Daten großer Datenmengen zu entdecken und dem Analysten oder dem Anwender in übersichtlicher Form zu präsentieren. Die Autoren stellen die Techniken und Anwendungen dieses interdisziplinären Gebiets anschaulich dar.

Languages

  • d 132
  • e 68
  • m 1
  • More… Less…

Types

  • s 57
  • i 4
  • x 2
  • el 1
  • n 1
  • r 1
  • More… Less…

Subjects

Classifications