Search (219 results, page 1 of 11)

  • × type_ss:"el"
  • × year_i:[2000 TO 2010}
  1. García Barrios, V.M.: Informationsaufbereitung und Wissensorganisation in transnationalen Konzernen : Konzeption eines Informationssystems für große und geographisch verteilte Unternehmen mit dem Hyperwave Information System (2002) 0.04
    0.042900875 = product of:
      0.1716035 = sum of:
        0.07173543 = weight(_text_:205 in 6000) [ClassicSimilarity], result of:
          0.07173543 = score(doc=6000,freq=2.0), product of:
            0.2057144 = queryWeight, product of:
              6.312392 = idf(docFreq=217, maxDocs=44218)
              0.032588977 = queryNorm
            0.3487137 = fieldWeight in 6000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.312392 = idf(docFreq=217, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6000)
        0.07501655 = weight(_text_:verteilte in 6000) [ClassicSimilarity], result of:
          0.07501655 = score(doc=6000,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.35659945 = fieldWeight in 6000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6000)
        0.024851536 = product of:
          0.049703073 = sum of:
            0.049703073 = weight(_text_:allgemein in 6000) [ClassicSimilarity], result of:
              0.049703073 = score(doc=6000,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.2902644 = fieldWeight in 6000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6000)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Abstract
    Transnationale Konzerne haben einen dringenden Bedarf an einer umfassenden Lösung für ihre Intranetsysteme. Die spezifischen Anforderungen an ein wissensbasiertes Informationssystem sind vielfältig, die kritischsten davon sind aber allgemein gültig und ergeben sich aufgrund der stark vernetzten und geographisch verteilten Struktur des Konzerns. In unterschiedlichen Wissensdisziplinen, insbesondere Wissensmanagement, Informationsmanagement, Datenmanagement und Wissensorganisation, versucht man, oftmals in den einzelnen Disziplinen isoliert, die Erfüllung spezifischer Anforderungen zu implementieren. Nicht selten auf eine ineffektive Weise. Die nachfolgende Arbeit verfolgt deshalb einen ganzheitlichen Ansatz über die Wissensdisziplinen, um den umfangreichen Anforderungen gerecht werden zu können. Im Untersuchungsbereich der vorliegenden Arbeit wird die Problematik aus der Sicht der wichtigsten involvierten Wissensdisziplinen beleuchtet, um nach vorhandenen bzw. etablierten Lösungsansätzen zu suchen. Die spezifischen Einflussbereiche der Disziplinen auf Intranetlösungen werden überprüft und kritischen Aspekten von Anforderungen (beispielsweise 'starke örtliche Verteilung vs. Systemtransparenz', 'Replikationsmaßnahmen vs. Systemperformanz' oder 'semantische Wissensmodelle vs. bedarfsgerechten Wissenszugang') gegenübergestellt. Jede Disziplin bietet effiziente und effektive Lösungen für unterschiedliche Aspekte, es konnte jedoch kein umfassendes Gestaltungsmodell, welches die spezifischen Lösungsansätze der Disziplinen vereint, im Rahmen des Rechercheprozesses identifiziert werden. Aufgrund des oben beschriebenen Sachverhalts wird im Gestaltungsbereich dieser Arbeit ein zweiteiliges Technisches Gestaltungsmodell vorgestellt. Es besteht aus einem strategischen Analyseschema und einem funktionalen Komponentenschema, und berücksichtigt die Einflussbereiche oben erwähnter Wissensdisziplinen. Basierend auf der konkreten Anforderung einer Intranetlösung für einen transnationalen - und anonymisiert dargestellten - Konzern, wird das vorgestellte Modell angewandt, und auf Basis des Hyperwave Information Servers die technische Umsetzung eines wissensbasierten Informationssystems, von dem beispielhaft zwei Module näher beschrieben werden, gezeigt.
    Pages
    205 S
  2. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.02
    0.021892602 = product of:
      0.08757041 = sum of:
        0.037497066 = weight(_text_:informatik in 3284) [ClassicSimilarity], result of:
          0.037497066 = score(doc=3284,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.2254996 = fieldWeight in 3284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.04124263 = weight(_text_:systeme in 3284) [ClassicSimilarity], result of:
          0.04124263 = score(doc=3284,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2364941 = fieldWeight in 3284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.008830713 = product of:
          0.017661426 = sum of:
            0.017661426 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.017661426 = score(doc=3284,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
    Date
    22. 1.2010 14:41:24
  3. Kunz, M.: Sachliche Suche in verteilten Ressourcen : ein kurzer Überblick über neuere Entwicklungen (2002) 0.02
    0.020004414 = product of:
      0.24005297 = sum of:
        0.24005297 = weight(_text_:verteilte in 4373) [ClassicSimilarity], result of:
          0.24005297 = score(doc=4373,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            1.1411183 = fieldWeight in 4373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.125 = fieldNorm(doc=4373)
      0.083333336 = coord(1/12)
    
    Theme
    Verteilte bibliographische Datenbanken
  4. Coyle, K.: ¬The virtual union catalog : a comparative study (2000) 0.02
    0.019973617 = product of:
      0.1198417 = sum of:
        0.09001986 = weight(_text_:verteilte in 1230) [ClassicSimilarity], result of:
          0.09001986 = score(doc=1230,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.42791936 = fieldWeight in 1230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.046875 = fieldNorm(doc=1230)
        0.029821843 = product of:
          0.059643686 = sum of:
            0.059643686 = weight(_text_:allgemein in 1230) [ClassicSimilarity], result of:
              0.059643686 = score(doc=1230,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.34831727 = fieldWeight in 1230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1230)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Theme
    Verteilte bibliographische Datenbanken
    Katalogfragen allgemein
  5. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.02
    0.016999193 = product of:
      0.06799677 = sum of:
        0.039771643 = weight(_text_:informatik in 3385) [ClassicSimilarity], result of:
          0.039771643 = score(doc=3385,freq=4.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.23917845 = fieldWeight in 3385, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.013314205 = weight(_text_:internet in 3385) [ClassicSimilarity], result of:
          0.013314205 = score(doc=3385,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.13838623 = fieldWeight in 3385, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
        0.014910921 = product of:
          0.029821843 = sum of:
            0.029821843 = weight(_text_:allgemein in 3385) [ClassicSimilarity], result of:
              0.029821843 = score(doc=3385,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.17415863 = fieldWeight in 3385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3385)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
    Field
    Informatik
  6. Sietmann, R.: Suchmaschine für das akademische Internet (2004) 0.02
    0.01620115 = product of:
      0.09720689 = sum of:
        0.07501655 = weight(_text_:verteilte in 5742) [ClassicSimilarity], result of:
          0.07501655 = score(doc=5742,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.35659945 = fieldWeight in 5742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
        0.022190342 = weight(_text_:internet in 5742) [ClassicSimilarity], result of:
          0.022190342 = score(doc=5742,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.23064373 = fieldWeight in 5742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
      0.16666667 = coord(2/12)
    
    Abstract
    In Zusammenarbeit mit der norwegischen Suchtechnologie-Firma Fast Search & Transfer hat die Universitätsbibliothek Bielefeld den Prototyp einer Suchmaschine für wissenschaftliche Bibliotheken entwickelt. Dieser demonstriert jetzt mit dem öffentlichen Zugriff auf ausgewählte digitalisierte Sammlungen der Projektteilnehmer die neuen Möglichkeiten des akademischen Retrieval. <http://www.heise.de/RealMedia/ads/adstream_lx.ads/www.heise.de/newsticker/meldungen/wissenschaft/954604605/Middle1/he-test-contentads/zaehler.html/38363566383735383364653062323630?_RM_EMPTY_> Während kommerzielle Suchmaschinen wie Google oder Yahoo sich nicht an akademischen Kriterien orientieren, beschränkt sich die Bielefeld Academic Search Engine (BASE ) auf die von wissenschaftlichen Bibliotheken erschlossenen und aufbereiteten Inhalte. Dazu gehören Hochschulschriften, Preprints, elektronische Zeitschriften und digitale Sammlungen, wie beispielsweise die "Internet Library of Early Journals" des Oxford University Library Service und die "Wissenschaftlichen Rezensionsorgane und Literaturzeitschriften des 18. und 19. Jahrhunderts aus dem deutschen Sprachraum" der UB Bielefeld. Wer etwa bei Google die Stichworte "Immanuel Kant" +Frieden eingibt, kommt zwar schnell an den Originaltext des Aufsatzes "Zum ewigen Frieden" heran, tut sich jedoch schwer, unter den bunt gemischten über 11.000 Treffern gezielt weiter zu recherchieren. Das BASE-Modell dagegen stellt dem Nutzer hierfür vielfältige Navigationshilfen und Metainformationen zur Verfügung. So erleichtert unter anderem die Verfeinerung der Suche auf das Erscheinungsjahr den Zugriff auf die zeitgenössische Diskussion der berühmten Schrift des Königsberger Philosophen. Derzeit ermöglicht der BASE-Prototyp das Retrieval in 15 verschiedenen Archivquellen. Darunter befinden sich die Zeitschriften der Aufklärung, die Elektronischen Dissertationen der Universität Bochum, das elektronische Journal Documenta Mathematica sowie die Mathematischen Volltexte des Springer-Verlags. Der geplante Ausbau soll sich auf eine verteilte Architektur stützen, in der von einzelnen Bibliotheken lokal erstellte Indexe gemeinsam zu einem virtuellen Master-Index beitragen. Dies würde dem Nutzer die nahtlose Navigation durch die verteilten Bestände erlauben."
  7. Wegner, B.: Mathematik im Blickpunkt : Wissensmanagement in der Mathematik - 140 Jahre Information zur Literatur weltweit (2008) 0.02
    0.01569032 = product of:
      0.094141915 = sum of:
        0.0721746 = weight(_text_:systeme in 4081) [ClassicSimilarity], result of:
          0.0721746 = score(doc=4081,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.41386467 = fieldWeight in 4081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4081)
        0.021967318 = weight(_text_:internet in 4081) [ClassicSimilarity], result of:
          0.021967318 = score(doc=4081,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.22832564 = fieldWeight in 4081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4081)
      0.16666667 = coord(2/12)
    
    Content
    Inhalt: Mathematik im Web: die Informationsdienste von FIZ Karlsruhe/Zentralblatt MATH - eine Bestandsaufnahme - O. Ninnemann Die Anfänge des Wissensmanagements in der Mathematik: das "Jahrbuch über die Fortschritte der Mathematik" - S. Göbel Mathematik-Information im Wechsel der Zeiten und politischen Systeme - B. Wegner MathEduc - Informationen zum Lernen und Lehren von Mathematik - B. Ruffer-Henn, B. Wegner Die WDML - Ideen und Wirklichkeit - B. Wegner Über Suchmaschinen und Datenbanken - W. Sperber Der Mathematiker Wolfgang Doeblin (1915-1940) - Recherchen im Internet - S. Göbel Kryptographie und Turing-Maschinen - E Rossi Wo spielt die Musik im Zentralblatt? Recherchen am Rande der Mathematik - K.-D. Kiermeier Vom Vierfarbenproblem zum Vierfarbensatz - eine Analyse mit Hilfe des Zentralblatt MATH - H. Kröger
  8. Bibliotheken und die Vernetzung des Wissens (2002) 0.01
    0.013477102 = product of:
      0.08086261 = sum of:
        0.039619982 = product of:
          0.079239964 = sum of:
            0.079239964 = weight(_text_:vernetzung in 1741) [ClassicSimilarity], result of:
              0.079239964 = score(doc=1741,freq=4.0), product of:
                0.20326729 = queryWeight, product of:
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.032588977 = queryNorm
                0.38983136 = fieldWeight in 1741, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1741)
          0.5 = coord(1/2)
        0.04124263 = weight(_text_:systeme in 1741) [ClassicSimilarity], result of:
          0.04124263 = score(doc=1741,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2364941 = fieldWeight in 1741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=1741)
      0.16666667 = coord(2/12)
    
    Abstract
    Bibliotheken verlassen zunehmend ihre traditionellen Pfade (Sammlung und Bereitstellung von Informationen und Medien) und erproben neue institutionelle Ausrichtungen. Sie übernehmen zusätzlich im Hinblick auf ihre Zielgruppen soziale, kulturelle und lernunterstützenden Funktionen. Diese Profilveränderung kann aber nur in einer vernetzten Struktur von Bildungs-, Kultureinrichtungen und sozialen Institutionen in einem räumlich gesamtzusammenhang stattfinden. diesem Zweck dienen kooperative Bildungs- und Lernarrangements abenso wie an Nutzerbedürfnissen orientierte technische systeme der digitalen Informationspräsentation, Recherche und Interaktion. Praktikern wie wissenschaftlich Interessierten aus Bibliotheken und deren kooperierenden Partnern aus Bildung und Kultur bietet dieser Band eine Fülle praxisorientierter Beispiele, die mögliche Profilveränderungen und Gestaltungsspielräume für Bibliotheken aufzeigen
    Content
    Enthält die Beiträge: (1) Organisationsveränderung durch kooperatives Handeln: STANG, R.: Vernetzung als Zukunftsmodell; BUßMANN, I. u.a.: Innovative Lernarrangements in der institutionellen Umsetzung; KIL, M.: Lernveränderung = Organisationsveränderung?; STANNETT, A. u. A. CHADWICK: Lifelong learning, libraries and museums in the United Kingdom; UMLAUF, K.: Professionsveränderung in netzwerkbezogenen Arbeitsumgebungen - (2) Lernender Stadtteil: STEFFEN, G.: Die Stadt und der Stadtteil; PUHL, A.: Stadtteilbüchereien in der Fremdsicht; PUHL, A.: Institutionelle Kooperation in der Bildungsberatung - (3) Informationsnetze - gesucht und nicht gefunden: GÖDERT, W.: Zwischen Individuum und Wissen; THISSEN, F.: Verloren in digitalen Netzen - (4) Umsetzungshilfen: STANG, R.: Lerarrangements und Wissensangebote gestalten - (5) Ausblick: PUHL, A.: Aktuelle Forschungsbedarfe
  9. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.01
    0.013448846 = product of:
      0.08069307 = sum of:
        0.061863944 = weight(_text_:systeme in 2434) [ClassicSimilarity], result of:
          0.061863944 = score(doc=2434,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.35474116 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
        0.01882913 = weight(_text_:internet in 2434) [ClassicSimilarity], result of:
          0.01882913 = score(doc=2434,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.1957077 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
      0.16666667 = coord(2/12)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert, berichtet Technology Review in seiner Online-Ausgabe. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbstständig ermittelt.""
  10. Ryska, N.: Weltgeschichte der Kryptologie (2007) 0.01
    0.012499022 = product of:
      0.14998826 = sum of:
        0.14998826 = weight(_text_:informatik in 4126) [ClassicSimilarity], result of:
          0.14998826 = score(doc=4126,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.9019984 = fieldWeight in 4126, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.125 = fieldNorm(doc=4126)
      0.083333336 = coord(1/12)
    
    Field
    Informatik
  11. Universität der Bundeswehr München / Forschungsgruppe Kooperationssysteme: Social networking services : Zwischenbericht: Erste Ergebnisse der Umfrage zur privaten Nutzung von Social_Networking_Services (SNS) in Deutschland (2008) 0.01
    0.010142079 = product of:
      0.060852468 = sum of:
        0.04202334 = product of:
          0.08404668 = sum of:
            0.08404668 = weight(_text_:vernetzung in 57) [ClassicSimilarity], result of:
              0.08404668 = score(doc=57,freq=2.0), product of:
                0.20326729 = queryWeight, product of:
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.032588977 = queryNorm
                0.4134786 = fieldWeight in 57, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.046875 = fieldNorm(doc=57)
          0.5 = coord(1/2)
        0.01882913 = weight(_text_:internet in 57) [ClassicSimilarity], result of:
          0.01882913 = score(doc=57,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.1957077 = fieldWeight in 57, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=57)
      0.16666667 = coord(2/12)
    
    Abstract
    Social_Networking_Servicessind Anwendungssysteme, die ihren Nutzern Funktionalitäten zum Identitatsmanagement (d.h. zur Darstellung der eigenen Person i.d.R. in Form eines Profils) zur Verfügung stellen und darüber hinaus die Vernetzung mit anderen Nutzern (und so die Verwaltung eigener Kontakte) ermöglichen. Die Umfrage lief vom 03.12.2007 bis zum 31.01.2008. Ziel war es, die private Nutzung von SNS in Deutschland (mit 24 Fragen) näher zu untersuchen, um erstmalig eine nicht kommerzielle, unabhängige und umfassende Übersicht zur Social_Networking_Nutzung in Deutschland zu erhalten. In verschiedenen Blöcken wurden unter anderem folgende Themen abgefragt : - Häufigkeit der Nutzung von SNS - Anzahl an Kontakten in einzelnen SNS - Wer initiierte den Kontakt - Wie werden die Funktionen in den SNS genutzt - Wie ist die Meinung der Nutzer zu Werbung in SNS und zur Weitergabe von Profildaten aus den SNS an Dritte - Mögliche Grunde fur einen Austritt aus einem SNS - Erfolgsfaktoren der SNS: Warum wird ein SNS bevorzugt genutzt - Allgemeine Fragen zur Internetnutzung und zur Demografie
    Theme
    Internet
  12. Convera: RetrievalWare 8 : the power to discover (2003) 0.01
    0.010002207 = product of:
      0.120026484 = sum of:
        0.120026484 = weight(_text_:verteilte in 2395) [ClassicSimilarity], result of:
          0.120026484 = score(doc=2395,freq=2.0), product of:
            0.21036641 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.032588977 = queryNorm
            0.57055914 = fieldWeight in 2395, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0625 = fieldNorm(doc=2395)
      0.083333336 = coord(1/12)
    
    Abstract
    RetrievalWare bietet Organisationen ein hochflexibles Sicherheitsmodell und eine beliebig skalierbare Plattform für geschäftskritische Such- und Kategorisierungsanwendungen. Basierend auf einer robusten und praxisbewährten Technologie, stellt die verteilte Architektur von RetrievalWare eine Hochleistungs-Infrastruktur zur Verfügung, um Informationen aus einer Vielzahl von Quellen zu indizieren, zu finden, zu kategorisieren und zu verlinken. Der modulare Aufbau der Lösung ist der Schlüssel zu maximaler Flexibilität: RetrievalWare lässt sich an die spezifischen Anforderungen von Branchen und Sprachräumen ebenso nahtlos anpassen, wie auch an individuelle Vorgehensweisen bei dem Aufspüren von Wissen und dem Management von Informationen.
  13. Cazan, C.: Medizinische Ontologien : das Ende des MeSH (2006) 0.01
    0.009563049 = product of:
      0.057378292 = sum of:
        0.037497066 = weight(_text_:informatik in 132) [ClassicSimilarity], result of:
          0.037497066 = score(doc=132,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.2254996 = fieldWeight in 132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=132)
        0.019881228 = product of:
          0.039762456 = sum of:
            0.039762456 = weight(_text_:allgemein in 132) [ClassicSimilarity], result of:
              0.039762456 = score(doc=132,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.23221152 = fieldWeight in 132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=132)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Die Komplexizität medizinischer Fragestellungen und des medizinischen Informationsmanagements war seit den Anfängen der Informatik immer ein besonders wichtiges Thema. Trotz des Scheiterns der Künstlichen Intelligenz in den 80er Jahren des vorigen Jahrhunderts haben deren Kernideen Früchte getragen. Durch kongruente Entwicklung einer Reihe anderer Wissenschaftsdisziplinen und der exponentiellen Entwicklung im Bereich Computerhardware konnten die gestellten, hohen Anforderungen bei der medizinischen Informationssuche doch noch erfüllt werden. Die programmatische Forderung von Tim Berners-Lee betreffend "Semantic Web" im Jahr 2000 hat dem Thema Ontologien für maschinenlesbare Repositorien in Allgemein- und Fachsprache breitere Aufmerksamkeit gewonnen. Da in der Medizin (PubMed) mit dem von NLM schon vor 20 Jahren entwickelten Unified Medical Language System (UMLS) eine funktionierende Ontologie in Form eines semantischen Netzes in Betrieb ist, ist es auch für Medizinbibliothekare und Medizindokumentare hoch an der Zeit, sich damit zu beschäftigen. Ontologien können im Wesen, trotz der informatisch vernebelnden Terminologie, als Werkzeuge der Klassifikation verstanden werden. Hier sind von seiten der Bibliotheks- und Dokumentationswissenschaft wesentliche Beiträge möglich. Der vorliegende Bericht bietet einen Einstieg in das Thema, erklärt wesentliche Elemente des UMLS und schließt mit einer kommentierten Anmerkungs- und Literaturliste für die weitere Beschäftigung mit Ontologien.
  14. Robbio, A. de; Maguolo, D.; Marini, A.: Scientific and general subject classifications in the digital world (2001) 0.01
    0.0083416365 = product of:
      0.05004982 = sum of:
        0.037497066 = weight(_text_:informatik in 2) [ClassicSimilarity], result of:
          0.037497066 = score(doc=2,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.2254996 = fieldWeight in 2, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=2)
        0.012552753 = weight(_text_:internet in 2) [ClassicSimilarity], result of:
          0.012552753 = score(doc=2,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.1304718 = fieldWeight in 2, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=2)
      0.16666667 = coord(2/12)
    
    Field
    Informatik
    Theme
    Internet
  15. Schetsche, M.: ¬Die ergoogelte Wirklichkeit : Verschwörungstheorien und das Internet (2005) 0.01
    0.00764318 = product of:
      0.04585908 = sum of:
        0.03261301 = weight(_text_:internet in 3397) [ClassicSimilarity], result of:
          0.03261301 = score(doc=3397,freq=6.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.33897567 = fieldWeight in 3397, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=3397)
        0.01324607 = product of:
          0.02649214 = sum of:
            0.02649214 = weight(_text_:22 in 3397) [ClassicSimilarity], result of:
              0.02649214 = score(doc=3397,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.23214069 = fieldWeight in 3397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3397)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    "Zweimal täglich googeln" empfiehlt Mathias Bröckers in seinem Buch "Verschwörungen, Verschwörungstheorien und die Geheimnisse des 11.9.". Der Band gilt den gutbürgerlichen Medien von FAZ bis Spiegel als Musterbeispiel krankhafter Verschwörungstheorie. Dabei wollte der Autor - nach eigenem Bekunden - keine Verschwörungstheorie zum 11. September vorlegen, sondern lediglich auf Widersprüche und Fragwürdigkeiten in den amtlichen Darstellungen und Erklärungen der US-Regierung zu jenem Terroranschlag hinweisen. Unabhängig davon, wie ernst diese Einlassungen des Autors zu nehmen sind, ist der "Fall Bröckers" für die Erforschung von Verschwörungstheorien unter zwei Aspekten interessant: Erstens geht der Band auf ein [[extern] ] konspirologisches Tagebuch zurück, das der Autor zwischen dem 13. September 2001 und dem 22. März 2002 für das Online-Magazin Telepolis verfasst hat; zweitens behauptet Bröckers in der Einleitung zum Buch, dass er für seine Arbeit ausschließlich über das Netz zugängliche Quellen genutzt habe. Hierbei hätte ihm Google unverzichtbare Dienste geleistet: Um an die Informationen in diesem Buch zu kommen, musste ich weder über besondere Beziehungen verfügen, noch mich mit Schlapphüten und Turbanträgern zu klandestinen Treffen verabreden - alle Quellen liegen offen. Sie zu finden, leistete mir die Internet-Suchmaschine Google unschätzbare Dienste. Mathias Bröckers
    Theme
    Internet
  16. Wesch, M.: Web 2.0 ... The Machine is Us/ing Us (2006) 0.01
    0.0071278224 = product of:
      0.042766932 = sum of:
        0.025105506 = weight(_text_:internet in 3478) [ClassicSimilarity], result of:
          0.025105506 = score(doc=3478,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.2609436 = fieldWeight in 3478, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=3478)
        0.017661426 = product of:
          0.035322852 = sum of:
            0.035322852 = weight(_text_:22 in 3478) [ClassicSimilarity], result of:
              0.035322852 = score(doc=3478,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.30952093 = fieldWeight in 3478, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3478)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    5. 1.2008 19:22:48
    Theme
    Internet
  17. Talbot, D.: Durchblick im Infodschungel (2009) 0.01
    0.006724423 = product of:
      0.040346537 = sum of:
        0.030931972 = weight(_text_:systeme in 2865) [ClassicSimilarity], result of:
          0.030931972 = score(doc=2865,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.17737058 = fieldWeight in 2865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
        0.009414565 = weight(_text_:internet in 2865) [ClassicSimilarity], result of:
          0.009414565 = score(doc=2865,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.09785385 = fieldWeight in 2865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
      0.16666667 = coord(2/12)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.
  18. Mayr, P.; Walter, A.-K.: Einsatzmöglichkeiten von Crosskonkordanzen (2007) 0.01
    0.0066033304 = product of:
      0.079239964 = sum of:
        0.079239964 = product of:
          0.15847993 = sum of:
            0.15847993 = weight(_text_:vernetzung in 162) [ClassicSimilarity], result of:
              0.15847993 = score(doc=162,freq=4.0), product of:
                0.20326729 = queryWeight, product of:
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.032588977 = queryNorm
                0.7796627 = fieldWeight in 162, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.0625 = fieldNorm(doc=162)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Content
    Auch in: Lokal-Global: Vernetzung wissenschaftlicher Infrastrukturen; 12. Kongress der IuK-Initiative der Wissenschaftlichen Fachgesellschaft in Deutschland, Tagungsberichte, GESIS-IZ Sozialwissenschaft, Bonn, S.149-166.
    Source
    http://www.gesis.org/Information/Forschungsuebersichten/Tagungsberichte/Vernetzung/Mayr-Walter.pdf
  19. Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur (2005) 0.01
    0.0065608993 = product of:
      0.039365396 = sum of:
        0.025776641 = weight(_text_:systeme in 3245) [ClassicSimilarity], result of:
          0.025776641 = score(doc=3245,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.1478088 = fieldWeight in 3245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
        0.013588754 = weight(_text_:internet in 3245) [ClassicSimilarity], result of:
          0.013588754 = score(doc=3245,freq=6.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.14123987 = fieldWeight in 3245, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
      0.16666667 = coord(2/12)
    
    Abstract
    Artikel als Reaktion auf das Angebot von Google: http://scholar.google.com/. Begleitkommentar des Verfassers: Der "Google-Scholar" (http://scholar.google.com/) ist durchaus eine bemerkenswerte Entwicklung von Google, welche die Internet-Suchtechnik voranbringt - zumindest vordergruendig. Der Satz auf der Scholar Startseite "Stand on the shoulders of giants" drueckt es treffend aus: derart gigantische Ressourcen hat eben im Suchmaschinenbereich sonst niemand. Und genau DAS ist der Punkt: das Quasi-Monopol von Google (spaeter u.U. Microsoft) wird dadurch NOCH staerker werden. Ich halte diese Entwicklung fuer bedrohlich. An dieser Stelle ist kein Vorwurf an Google zu richten: dort verhaelt man sich nur so, wie es der Markt verlangt. Der Vorwurf ist dorthin zu richten, wo diese Entwicklung gesehen und ignoriert wird. Ich erlebe es immer wieder, auch in "hochrangigen" Gespraechen, dass als "Argument" gegen alternative Enticklungen vorgebracht wird "was wollt ihr da eigentlich - es gibt doch Google und die sind doch gut". Solche Kurzsichtigkeit ist kaum uebertreffbar. Von der Zeitschrift "Technology Review" des Heise-Verlages (das deutsche Pendant zum MIT-Review) wurde ich gebeten, hierzu einen Artikel zu schreiben. Sie finden diesen Artikel bei Interesse im WWW unter http://suma-ev.de/tech-rev1.html Daraus hat sich eine Diskussion ueber unabhaengige Suchmaschinen ergeben, die ich hier kurz skizzieren moechte: ----------------------------------------------------------------------- Unabhaengige Suchmaschinen sind in einem weiten Spektrum von Moeglichkeiten denkbar: 1. von voellig freien, nicht strukturierten, losen Zusammenschluessen, z.B. auf Peer-to-Peer Basis (a la YACY: http://suma-lab.de/) 2. bis hin zu staatlich gewollter Unabhaengigkeit durch gesetzliche Regelungen (aehnlich der Intention beim oeffentlich-rechtlichen Rundfunk und Fernsehen); Stichwort: oeffentlich-rechtliche Suchmaschine 3. Dazwischen sind Optionen denkbar, die beides kombinieren: eine Vielzahl von Betreibern kleinerer Suchmaschinen (Mini-Sucher), die sich zu Verbuenden organisieren, in denen Organisationen des oeffentlich-rechtlichen Raumes, wie z.B. Bibliotheken und Universitaeten als klassische Wissensvermittler, eine tragende Rolle spielen. 4. Und moeglicherweise sehen SIE noch ganz andere Moeglichkeiten ...?
    Content
    Text des Artikels: "Wenn der Rohstoff des 21. Jahrhunderts wirklich Information ist, dann unterscheidet er sich grundlegend von seinen Vorgängern Eisenerz und Erdöl: Er verbraucht sich nicht, kann endlos wiederverwertet werden, ist einfach um die ganze Welt transportierbar, und kann sich sogar durch Neuzusammensetzung vermehren. Letztere Eigenschaft, so schön sie zunächst scheint, wird allmählich zur Plage. Die Menge der weltweit vorliegenden Information wächst seit Jahrhunderten stetig. Laut einem Bericht der University of California in Berkeley schafft die Menschheit derzeit ein bis zwei Exabyte (Milliarden Gigabyte) an Information pro Jahr. Dargestellt als Text entspricht das einem Stapel von rund einer Billion dicker Bücher - dessen Höhe etwa die 130-fachen Entfernung Erde-Mond erreichen würde. Die große Herausforderung ist, aus solch gigantischen Informationsmengen das subjektiv Wesentliche - also das Wissen - herauszusuchen. Die Wissensextraktion wird im digitalen Zeitalter zunehmend von Internet-Suchmaschinen übernommen. Sie verarbeiten den Rohstoff Information zu Wissen, kontrollieren und verteilen ihn. Es kann keinem Nutzer ganz geheuer sein, dass diese Schlüsselfunktion der Informationsgesellschaft in die Hände weniger Konzerne gerät: Google hat mit einem Marktanteil von mehr als 80 Prozent in Deutschland ein De-facto-Monopol erreicht, das nun Microsoft mit seiner "MSN Search" angreifen will. Aber diese Alternative weckt schwerlich mehr Vertrauen.
    Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
  20. Wissen, D.: Ist der OPAC von morgen heute schon möglich? (2009) 0.01
    0.0062722503 = product of:
      0.0376335 = sum of:
        0.017752273 = weight(_text_:internet in 4426) [ClassicSimilarity], result of:
          0.017752273 = score(doc=4426,freq=4.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.18451498 = fieldWeight in 4426, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=4426)
        0.019881228 = product of:
          0.039762456 = sum of:
            0.039762456 = weight(_text_:allgemein in 4426) [ClassicSimilarity], result of:
              0.039762456 = score(doc=4426,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.23221152 = fieldWeight in 4426, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4426)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Wissen Sie, wie sich zukünftig Bibliografien, Kataloge und OPACs bedienen lassen? Wenn wir über die Zukunft von Bibliografien, Katalogen und OPACs nachdenken, denken wir dann zunächst an Medien verzeichnisse oder an offene, kommunikative Webportale, die es jedem ermöglichen, sich nach Art des Web 2.0 an der Erfassung der bibliografischen Daten zu beteiligen? Wenn wir mediale Internet angebote des Web 2.0 genauer betrachtet, bieten diese meh als lediglich die Verzeichnung von Medien. Es zeigt sich, dass angesichts aktueller Entwicklungen in Richtung Web 2.0 die Frage neu gestellt werden sollte, in welcher Form zukünftig mediografische Portale ihren Nutzen haben könnten. Beispielsweise könnte ein OPAC 2.0 jedem Interessenten einen individuellen Zugang zu einem Informationsraum offerieren, der sich funktionell ganz den eigenen Bedürfnissen und Wünschen des Bibliotheksnutzers anpasst und nicht nur Zugang zu Informationen ermöglicht, sondern auch vollmedialen Zugriff, inhaltliche Verweisfunktionen, erweiterten Service sowie Kommunikationsfunktionen. Die Antwort lautet also, dass Archive und Bibliotheken mehr über mediografische Portale nachden ken sollten und nicht über Bibliografien, Kataloge und OPACs! Eine darauf folgend wichtige Frage ist, ob diese Portale sowohl inhaltlich als auch funktionell nicht nur unseren Archiv und Bibliotheksnutzern mehr Service bieten, sondern auch einen höheren Zweck für Archive und Bibliotheken selbst darstellen? Die Online Techniken des Web 2.0 und dessen Portale offerieren virtuelle Welten und neue Möglichkeiten zum Aktiv und Produktivsein, also insgesamt zum Proaktivsein unserer Nutzer. Die Betrachtung solcher Internetangebote zeigt, dass sich mediografische Angebote bereits in einer Entwicklung befinden. Doch wenn es eine solche Entwicklung gibt, muss überlegt werden, wie Archive und Bibliotheken sich hierbei einbringen können. Somit zeichnet sich bei diesem Thema eine Brisanz ab. Denn zu bedenken ist, dass mediografische Daten bereits in Rechercheergebnissen bei Online-Datenbanken, Internet Suchmaschinen, Online Enzyklopädien oder anderen Angeboten eine Rolle spielen.
    Theme
    Katalogfragen allgemein

Languages

  • e 125
  • d 86
  • a 2
  • el 2
  • More… Less…

Types

  • a 61
  • i 14
  • x 7
  • m 5
  • r 5
  • s 3
  • n 2
  • b 1
  • More… Less…

Classifications