Search (60 results, page 3 of 3)

  • × language_ss:"d"
  • × type_ss:"el"
  • × year_i:[2000 TO 2010}
  1. cis: Nationalbibliothek will das deutsche Internet kopieren (2008) 0.00
    0.0029883978 = product of:
      0.011953591 = sum of:
        0.011953591 = product of:
          0.023907183 = sum of:
            0.023907183 = weight(_text_:22 in 4609) [ClassicSimilarity], result of:
              0.023907183 = score(doc=4609,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.1354154 = fieldWeight in 4609, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4609)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    24.10.2008 14:19:22
  2. Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur (2005) 0.00
    0.0026279476 = product of:
      0.01051179 = sum of:
        0.01051179 = weight(_text_:information in 3245) [ClassicSimilarity], result of:
          0.01051179 = score(doc=3245,freq=12.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.11877254 = fieldWeight in 3245, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
      0.25 = coord(1/4)
    
    Content
    Text des Artikels: "Wenn der Rohstoff des 21. Jahrhunderts wirklich Information ist, dann unterscheidet er sich grundlegend von seinen Vorgängern Eisenerz und Erdöl: Er verbraucht sich nicht, kann endlos wiederverwertet werden, ist einfach um die ganze Welt transportierbar, und kann sich sogar durch Neuzusammensetzung vermehren. Letztere Eigenschaft, so schön sie zunächst scheint, wird allmählich zur Plage. Die Menge der weltweit vorliegenden Information wächst seit Jahrhunderten stetig. Laut einem Bericht der University of California in Berkeley schafft die Menschheit derzeit ein bis zwei Exabyte (Milliarden Gigabyte) an Information pro Jahr. Dargestellt als Text entspricht das einem Stapel von rund einer Billion dicker Bücher - dessen Höhe etwa die 130-fachen Entfernung Erde-Mond erreichen würde. Die große Herausforderung ist, aus solch gigantischen Informationsmengen das subjektiv Wesentliche - also das Wissen - herauszusuchen. Die Wissensextraktion wird im digitalen Zeitalter zunehmend von Internet-Suchmaschinen übernommen. Sie verarbeiten den Rohstoff Information zu Wissen, kontrollieren und verteilen ihn. Es kann keinem Nutzer ganz geheuer sein, dass diese Schlüsselfunktion der Informationsgesellschaft in die Hände weniger Konzerne gerät: Google hat mit einem Marktanteil von mehr als 80 Prozent in Deutschland ein De-facto-Monopol erreicht, das nun Microsoft mit seiner "MSN Search" angreifen will. Aber diese Alternative weckt schwerlich mehr Vertrauen.
    Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
  3. ¬Der Brockhaus in Text und Bild : Das Lexikon in der PC-Bibliothek (2003) 0.00
    0.0025748524 = product of:
      0.01029941 = sum of:
        0.01029941 = weight(_text_:information in 1664) [ClassicSimilarity], result of:
          0.01029941 = score(doc=1664,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.116372846 = fieldWeight in 1664, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=1664)
      0.25 = coord(1/4)
    
    Abstract
    Die Text-und-Bild-Version aus der Brockhausreihe punktet durch Schonung der PC-Ressourcen und weist auch durch die Basis-Software "PC-Bibliothek" einige Vorteile auf. Diese kann zusammen mit anderen Nachschlagewerken des Duden-/Brockhaus-Verlags verwendet werden, und die Umstellung auf neue Benutzeroberflächen wird umgangen. Die "PC-Bibliothek' verfügt neben der Standard-Ansicht auch über einen Expertenmodus mit exakten Suchmöglichkeiten. Der Verzicht auf grafischen Spielereien erweist sich als wohltuend und lenkt von der Information selbst kaum ab: Außerdem läuft das Werk auch auf Maschinen älteren Datums. Mit der Direktsuche greift das Lexikon Begriffe direkt aus einer anderen Anwendung heraus und stellt die ersten Zeilen des Artikels dar, ohne gleich das gesamte Programm zu öffnen. Die aktuelle Version ist durch einige Artikel auf 119.000 erweitert worden und enthält nun auch die digitale Version des Computer- und IT Brockhaus. Ein Dienst am Kunden ist durch den Verzicht auf das zwangsweise Einlegen der CD-ROM gelungen, wie es noch in der Ausgabe 2002 der Fall war. Den Schutz der Rechte in allen Ehren, aber diese Ambitionen hatten die Benutzerfreundlichkeit auf ein inakzeptables Maßherabgesetzt.
  4. Darnton, R.: Im Besitz des Wissens : Von der Gelehrtenrepublik des 18. Jahrhunderts zum digitalen Google-Monopol (2009) 0.00
    0.0025748524 = product of:
      0.01029941 = sum of:
        0.01029941 = weight(_text_:information in 2335) [ClassicSimilarity], result of:
          0.01029941 = score(doc=2335,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.116372846 = fieldWeight in 2335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
      0.25 = coord(1/4)
    
    Theme
    Information
  5. Gödert, W.: Schnittstelle von Wissen zwischen Institution und Nutzer (2001) 0.00
    0.0025748524 = product of:
      0.01029941 = sum of:
        0.01029941 = weight(_text_:information in 3775) [ClassicSimilarity], result of:
          0.01029941 = score(doc=3775,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.116372846 = fieldWeight in 3775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3775)
      0.25 = coord(1/4)
    
    Abstract
    In dieser Expertise werden ausgehend von Rahmenbedingungen, die sich aus dem Verständnis von Wissen, Information und Lernen sowie der Diskussion um die Entwicklung unserer Gesellschaft zu einer Informations- oder Wissensgesellschaft ergeben, die Eigenschaften von Wissens-Schnittstellen zwischen Institution und Benutzer aufgezeigt. Es werden Möglichkeiten zur Gestaltung diskutiert, die die Retrievalwerkzeuge, Verfahren zur semantischen Navigation und Probleme verteilter Datenbanken betreffen. Anhand der inhaltlichen Komponenten, aus denen eine Schnittstelle aufgebaut sein kann, werden Möglichkeiten zur eigenen Positionierung aufgezeigt. Probleme der technischen Realisierung werden kurz gestreift. Abschließend werden einige Beispiele vorgestellt. Abgerundet wird die Darstellung durch ein Literaturverzeichnis
  6. Foerster, H. von; Müller, A.; Müller, K.H.: Rück- und Vorschauen : Heinz von Foerster im Gespräch mit Albert Müller und Karl H. Müller (2001) 0.00
    0.0025614838 = product of:
      0.010245935 = sum of:
        0.010245935 = product of:
          0.02049187 = sum of:
            0.02049187 = weight(_text_:22 in 5988) [ClassicSimilarity], result of:
              0.02049187 = score(doc=5988,freq=2.0), product of:
                0.17654699 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050415643 = queryNorm
                0.116070345 = fieldWeight in 5988, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5988)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    10. 9.2006 17:22:54
  7. Reinmann-Rothmeier, G.: ¬Eine integrative Sicht auf das Managen von Wissen (2001) 0.00
    0.0021457102 = product of:
      0.008582841 = sum of:
        0.008582841 = weight(_text_:information in 3451) [ClassicSimilarity], result of:
          0.008582841 = score(doc=3451,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.09697737 = fieldWeight in 3451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3451)
      0.25 = coord(1/4)
    
    Theme
    Information Resources Management
  8. dpa: Europeana hat Startschwierigkeiten : Europas Online-Bibliothek (2008) 0.00
    0.0021457102 = product of:
      0.008582841 = sum of:
        0.008582841 = weight(_text_:information in 4537) [ClassicSimilarity], result of:
          0.008582841 = score(doc=4537,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.09697737 = fieldWeight in 4537, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4537)
      0.25 = coord(1/4)
    
    Theme
    Information Gateway
  9. dpa: Europeana gestartet : Europa eröffnet virtuelle Bibliothek (2008) 0.00
    0.0021457102 = product of:
      0.008582841 = sum of:
        0.008582841 = weight(_text_:information in 2408) [ClassicSimilarity], result of:
          0.008582841 = score(doc=2408,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.09697737 = fieldWeight in 2408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2408)
      0.25 = coord(1/4)
    
    Theme
    Information Gateway
  10. Weller, K.: Ontologien: Stand und Entwicklung der Semantik für WorldWideWeb (2009) 0.00
    0.0021457102 = product of:
      0.008582841 = sum of:
        0.008582841 = weight(_text_:information in 4425) [ClassicSimilarity], result of:
          0.008582841 = score(doc=4425,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.09697737 = fieldWeight in 4425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4425)
      0.25 = coord(1/4)
    
    Abstract
    Die Idee zu einem semantischen Web wurde maßgeblich geprägt (wenn auch nicht initiiert) durch eine Veröffentlichung von Tim Berners Lee, James Hendler und Ora Lassila im Jahre 2001. Darin skizzieren die Autoren ihre Version von einem erweiterten und verbesserten World Wide Web: Daten sollen so aufbereitet werden, dass nicht nur Menschen diese lesen können, sondern dass auch Computer in die Lage versetzt werden, diese zu verarbeiten und sinnvoll zu kombinieren. Sie beschreiben ein Szenario, in dem "Web agents" dem Nutzer bei der Durchführung komplexer Suchanfragen helfen, wie beispielsweise "finde einen Arzt, der eine bestimmte Behandlung anbietet, dessen Praxis in der Nähe meiner Wohnung liegt und dessen Öffnungszeiten mit meinem Terminkalender zusammenpassen". Die große Herausforderung liegt hierbei darin, dass Informationen, die über mehrere Webseiten verteilt sind, gesammelt und zu einer sinnvollen Antwort kombiniert werden müssen. Man spricht dabei vom Problem der Informationsintegration (Information Integration). Diese Vision der weltweiten Datenintegration in einem Semantic Web wurde seither vielfach diskutiert, erweitert und modifiziert, an der technischen Realisation arbeitet eine Vielzahl verschiedener Forschungseinrichtungen. Einigkeit besteht dahingehend, dass eine solche Idee nur mit der Hilfe neuer bedeutungstragender Metadaten verwirklicht werden kann. Benötigt werden also neue Ansätze zur Indexierung von Web Inhalten, die eine Suche über Wortbedeutungen und nicht über bloße Zeichenketten ermöglichen können. So soll z.B. erkannt werden, dass es sich bei "Heinrich Heine" um den Namen einer Person handelt und bei "Düsseldorf" um den Namen einer Stadt. Darüber hinaus sollen auch Verbindungen zwischen einzelnen Informationseinheiten festgehalten werden, beispielsweise dass Heinrich Heine in Düsseldorf wohnte. Wenn solche semantischen Relationen konsequent eingesetzt werden, können sie in vielen Fällen ausgenutzt werden, um neue Schlussfolgerungen zu ziehen.
  11. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.00
    0.0018206956 = product of:
      0.0072827823 = sum of:
        0.0072827823 = weight(_text_:information in 3385) [ClassicSimilarity], result of:
          0.0072827823 = score(doc=3385,freq=4.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.08228803 = fieldWeight in 3385, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.25 = coord(1/4)
    
    Content
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
  12. Dewald, U.: Aus den Augen, aber nicht aus dem Sinn : Auch ohne funktionierendes Sehzentrum kann das Gehirn visuelle Informationen aufnehmen (2005) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 4369) [ClassicSimilarity], result of:
          0.006866273 = score(doc=4369,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 4369, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4369)
      0.25 = coord(1/4)
    
    Theme
    Information
  13. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 4250) [ClassicSimilarity], result of:
          0.006866273 = score(doc=4250,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 4250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.25 = coord(1/4)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  14. Hierarchisch strukturiertes Fachwortverzeichnis : Thesaurus Technik und Management (2005) 0.00
    0.0017165683 = product of:
      0.006866273 = sum of:
        0.006866273 = weight(_text_:information in 2252) [ClassicSimilarity], result of:
          0.006866273 = score(doc=2252,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0775819 = fieldWeight in 2252, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2252)
      0.25 = coord(1/4)
    
    Content
    Fortsetzung als WTI-Thesaurus: "Mit dem Thesaurus Technik und Management (TEMA) bietet wir Ihnen die umfangreichste strukturierte Sammlung des aktuellen Fachwortschatzes zur Technik und zum produktionsorientierten Management in deutscher und englischer Sprache. Der Thesaurus TEMA bietet Ihnen eine Verschlagwortung innerhalb unserer Datenbanken. Zudem können Sie dieses effiziente Hilfsmittel für Ihre Recherchen in großen Informationsbasen anderer Anbieter und Unternehmen einsetzen. Bereits Ihr Einstieg in die Informationssuche wird wesentlich leichter. Lassen Sie sich über den Thesaurus relevante Suchbegriffe sowie unter- und übergeordnete Begriffe komfortabel anzeigen. Mit den hinterlegten Synonymen erweitern und vervollständigen Sie Ihre Suche qualifiziert. Darüber hinaus bietet Ihnen dieses geniale Werkzeug weiteren Mehrwert. Der Thesaurus macht Sie über Verweise auf Begriffe aufmerksam, die direkten Bezug zu Ihrem Recherchethema haben. Angesichts der zunehmenden Informationsflut, die Sie in Unternehmen heute zu bewältigen haben, spielt der Einsatz klar strukturierter Terminologien in Verbindung mit Datenbanken, Information Management und Document Management Systemen für das interne Wissensmanagement eine immer größere Rolle. Zugleich können Sie auf dieser Grundlage interne und externe Informationen besser integrieren. Der Thesaurus TEMA wird von WTI fortlaufend gepflegt und in einem Gemeinschaftsprojekt mit der Technischen Informationsbibliothek Hannover (TIB) zu einer Ontologie "Technik" weiterentwickelt. WTI bietet Ihnen den Thesaurus TEMA oder einzelne Fachteile daraus zum Kauf an und unterstützt Sie bei seiner Einbindung in Ihre firmeninternen Informationssysteme. Vgl.: http://www.wti-frankfurt.de/de/thesaurus.
  15. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 572) [ClassicSimilarity], result of:
          0.006007989 = score(doc=572,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
  16. Capurro, R.: Skeptisches Wissensmanagement (2003) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 750) [ClassicSimilarity], result of:
          0.006007989 = score(doc=750,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=750)
      0.25 = coord(1/4)
    
    Theme
    Information
  17. Wikipedia : das Buch : aus der freien Enzyklopädie Wikipedia ; [mit der DVD-ROM Wikipedia 2005/2006] (2005) 0.00
    0.0014865918 = product of:
      0.005946367 = sum of:
        0.005946367 = weight(_text_:information in 118) [ClassicSimilarity], result of:
          0.005946367 = score(doc=118,freq=6.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0671879 = fieldWeight in 118, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
      0.25 = coord(1/4)
    
    Abstract
    Das 1. "Benutzungs"-Handbuch zur freien Internet-Enzyklopädie Wikipedia gibt dem Neuling eine Einführung in das Arbeiten in und mit dem Online-Lexikon. Sowohl der passive Nutzer als auch der aktive Mitarbeiter erhält "Hilfen, Ratschläge, Anweisungen und Tipps". Das Buch richtet sich aber auch an versierte Wikipedia-Mitarbeiter, die einfach einmal schnell eine Information nachschlagen wollen. Außerdem gibt es einen Überblick über die Entstehungsgeschichte des Internetprojekts. Und das Besondere: Alle Kapitel des Buches sind aus der deutschsprachigen Wikipedia zusammengestellt und dort nachschlagbar. Dazu gibt es die DVD-ROM mit der über 300.000 Artikel umfassenden Offline-Version des Lexikons. Redaktionsstand: Oktober 2005.
    Footnote
    Kritisiert wird, dass viele der Einträge der Wikipedia einfach ein Sammelsurium aus bereits vorhandenen Lexikatexten darstellen oder dass komplette Beiträge aus DDR-Lexika eingestellt werden, ohne dass auf diese Tatsache hingewiesen wird. Rassistische Diskurse aus dem 19. und 20. Jahrhundert werden vielfach fortgeschrieben und nur moderat modernisiert. So werden in den Meinungsforen unter anderem Begriffe wie »Indianer« für die amerikanischen Ureinwohner benutzt mit der Begründung, der Begriff sei dank Karl May gar nicht negativ besetzt. Ebenso wie ein stark christliches Bias vielfach kritisiert wird, das von der Tatsache ablenkt, dass der überwiegende Teil der Menschheit anderen Religionen oder gar keiner anhängen. Diese christliche Orientierung scheint für die deutsche Version der Wikipedia typisch zu sein, andere Versionen des Netzwerkes kommen ohne christliche Symbolik aus, darunter sogar die italienische oder die spanische. Die zahlreichen Vorwürfe sorgten für eine Änderung des Publikationsverfahrens innerhalb der Wikipedia: jeder Autor eines neuen Artikels muss sich registrieren lassen, bevor der Artikel frei geschaltet wird. Allerdings findet keine echte Authentifizierung statt. Mittlerweile erstreckt sich die Kontrolle auch auf Änderungen an vorhandenen Artikeln -das Publikationsverhalten bei den verschiedenen Versionen ist durchaus unterschiedlich: während in der englischen Version die Tendenz besteht neue Artikel zu schreiben, werden in der deutschen Version gerne vorhandene Artikel modifiziert. Obwohl die Wikipedia Anlass zu Kritik bietet, so sollte sie - neben hierarchisch, in geschlossenen Systemen erstellten Nachschlagewerken -durchaus konsultiert werden. Es gibt viele Themen, zu denen in Allgemeinenzyklopädien wenig Information steht, so dass eine Fachenzyklopädie sicherlich in vielen Fällen vorzuziehen ist. Sie zu ermitteln dürfte keine Mühe bereiten. Es ist allerdings nicht tragbar, die Wikipedia als einzige Quelle zu akzeptieren. Immerhin dürfte sie das einzige lexikalische Projekt sein, an dem Menschen in mehr als 10o Sprachen mitarbeiten. Und wie gut die Selbstregulierungsmechanis men funktionieren, zeigt beispielhaft die Tatsache, dass die illegal aus DDR-Lexika eingestellten Texte von anderen Mitarbeitern entdeckt worden waren, obwohl sie ausschließlich gedruckt vorlagen und nicht durch Suchmaschinen gefunden werden konnten. Dies ändert nichts daran, dass manche Texte von miserabler Qualität einfach für lange Zeit unbearbeitet bleiben.
    Die Vermarktungsmaschinerie der Wikipedia arbeitet bewusst mit der Förderung eines Gemeinschaftsgefühls der Mitarbeiter. So sind die Wachstumsraten der regionalen Versionen der Wikipedia ein Indiz für ein solches Gemeinschaftsgefühl, welches allein aus dem Reiz großer Zahlen genügend Stoff für eine stetige Selbstrekrutierung neuer Anhänger gewinnt - wir leben in einem Zeitalter geschickten Marketings entbehrlicher Inhalte. An der Tatsache, dass die Artikel nur Momentaufnahmen darstellen, die praktisch nie zitierfähig sind, ändert dies nichts. Das, was bei Britannica und Co. ein Nachteil ist, wird bei der Wikipedia ins gegenteilige Extrem verkehrt. So ergibt sich der praktische Wert der Wikipedia daraus, dass man sich grob über ein vollkommen unbekanntes Thema informieren und dann eruieren kann, welches Fachlexikon eventuell für eine genaue Information geeignet wäre. Für zuverlässige Fakten ist sie vielfach unbrauchbar. Letztlich muss man ein Lexikon an seinen schlechten Einträgen messen. Ein ernstes Problem ist bei der Wikipedia das Phänomen der »edit wars« - im Schnitt wird jeder Artikel zehnmal geändert, bisweilen in sich gegenseitig ausschließenden Richtungen, und es ist nicht selten, dass ein neuer Forschungsstand mit einem 30 Jahre alten überschrieben wird. Allerdings führt dies mitunter zu fruchtbaren Diskussionen und einer Gegenüberstellung von neuem und altem Forschungsstand, was mehr ist als eine klassische Enzyklopädie bietet. Bisweilen werden umkämpfte Artikel gesperrt. So steht das Projekt vor dem Problem, einen gesicherten Forschungsstand kenntlich zu machen, der zitierfähig wäre. Auffallend ist die Bildung von regelrechten Bearbeiterkartellen, die als Wiki-Darwinismus bezeichnet werden können.
  18. Rötzer, F.: Computerspiele verbessern die Aufmerksamkeit : Nach einer Untersuchung von Kognitionswissenschaftlern schulen Shooter-Spiele manche Leistungen der visuellen Aufmerksamkeit (2003) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 1643) [ClassicSimilarity], result of:
          0.005149705 = score(doc=1643,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 1643, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1643)
      0.25 = coord(1/4)
    
    Theme
    Information
  19. Beuth, P.: ¬Das Netz der Welt : Lobos Webciety (2009) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 2136) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=2136,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 2136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2136)
      0.25 = coord(1/4)
    
    Content
    Auch ambitionierte soziale Projekte können gelingen: Refunite.org ist eine Art Suchmaschine, mit der Flüchtlinge weltweit nach vermissten Familienangehörigen suchen können. Lobo nennt als Beispiel die englische Seite fixmystreet.co.uk. Dort tragen Menschen ihre Postleitzahl ein und weisen auf Straßenschäden oder fehlende Schilder hin, oft bebildert mit selbst geschossenen Fotos. Die Eingaben werden an die zuständige Behörde weitergeleitet, damit die weiß, wo sie Schlaglöcher ausbessern muss. Online steht dann nachzulesen, was alles in einem Stadtteil verbessert wurde - und was nicht. "Das ist ein relativ simples Tool, das aber die Fähigkeit des Netzes, Informationen zwischen den Menschen neu zu sortieren, dazu nutzt, die Welt tatsächlich zu verbessern", sagt Lobo. 2009 feiert die Cebit also, dass wir alle online sind. In zehn Jahren wird sie feiern, dass wir das gar nicht mehr merken, glaubt Lobo: "Ich bin überzeugt davon, dass wir noch vernetzter sein werden." Halbautomatische Kommunikation nennt er das. "Dass zum Beispiel mein Handy ständig kommuniziert, wo ich gerade bin und diese Information einem ausgewählten Personenkreis zugängig macht. Dass mein Kalender intelligent wird und meldet, dass ein Freund zur gleichen Zeit in der Stadt ist. Vielleicht schlägt er dann vor: ,Wollt ihr euch da nicht treffen?' Solche Funktionen werden so normal sein, dass man im Prinzip ständig online ist, ohne dass es sich so anfühlt." Teilweise gibt es so etwas schon. Google hat mit "Latitude" gerade einen Ortungsdienst fürs Handy vorgestellt. Die Software sorgt dafür, dass ausgewählten Personen per Google Maps angezeigt wird, wo sich der Handybesitzer gerade aufhält. Der technophile Obama würde den Dienst wahrscheinlich mögen. Doch der Geheimdienst NSA wollte ihm sogar schon den Blackberry wegnehmen - damit der mächtigste Mann der Welt eben nicht ständig geortet werden kann."
  20. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.00
    0.0010728551 = product of:
      0.0042914203 = sum of:
        0.0042914203 = weight(_text_:information in 2678) [ClassicSimilarity], result of:
          0.0042914203 = score(doc=2678,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.048488684 = fieldWeight in 2678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2678)
      0.25 = coord(1/4)
    
    Content
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.

Types