Search (41 results, page 1 of 3)

  • × language_ss:"d"
  • × type_ss:"el"
  • × year_i:[2000 TO 2010}
  1. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.01
    0.014725204 = product of:
      0.066263415 = sum of:
        0.047685754 = weight(_text_:software in 4324) [ClassicSimilarity], result of:
          0.047685754 = score(doc=4324,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.30681872 = fieldWeight in 4324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.018577661 = product of:
          0.037155323 = sum of:
            0.037155323 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.037155323 = score(doc=4324,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  2. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.01
    0.010494272 = product of:
      0.047224224 = sum of:
        0.0063507194 = weight(_text_:of in 2434) [ClassicSimilarity], result of:
          0.0063507194 = score(doc=2434,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.103663445 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
        0.040873505 = weight(_text_:software in 2434) [ClassicSimilarity], result of:
          0.040873505 = score(doc=2434,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.2629875 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
      0.22222222 = coord(2/9)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert, berichtet Technology Review in seiner Online-Ausgabe. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbstständig ermittelt.""
  3. Talbot, D.: Durchblick im Infodschungel (2009) 0.01
    0.008864028 = product of:
      0.03988813 = sum of:
        0.0044906368 = weight(_text_:of in 2865) [ClassicSimilarity], result of:
          0.0044906368 = score(doc=2865,freq=4.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.07330112 = fieldWeight in 2865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
        0.035397492 = weight(_text_:software in 2865) [ClassicSimilarity], result of:
          0.035397492 = score(doc=2865,freq=6.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.22775385 = fieldWeight in 2865, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
      0.22222222 = coord(2/9)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.
    Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
  4. Böller, N.; Herget, J.; Hierl, S.: Knowledge-enhancing Helix : Herausbildung und Entwicklung von Informations- und Medienkompetenz durch systemgestütztes kollaboratives Arbeiten in der universitären Ausbildung. Eine Fallstudie (2007) 0.01
    0.008745227 = product of:
      0.03935352 = sum of:
        0.005292266 = weight(_text_:of in 707) [ClassicSimilarity], result of:
          0.005292266 = score(doc=707,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.086386204 = fieldWeight in 707, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=707)
        0.034061253 = weight(_text_:software in 707) [ClassicSimilarity], result of:
          0.034061253 = score(doc=707,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.21915624 = fieldWeight in 707, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=707)
      0.22222222 = coord(2/9)
    
    Abstract
    Informations- und Medienkompetenz gehören in der Informationsgesellschaft zu den wichtigsten Schlüsselqualifikationen. Ebenso gewinnen Aspekte wie Teamarbeit und Wissensaustausch im Berufsleben zunehmend an Bedeutung; kollaborative Arbeitsstile werden in der neuen informationell vernetzten Arbeitsumgebung dominant. Die berufsqualifizierende Ausbildung an Hochschulen ist somit mit immer neuen Herausforderungen konfrontiert: traditionelle Formen und Methoden der Hochschullehre wie das Schreiben wissenschaftlicher Arbeiten, Vorlesungen, Referate, Seminare oder Gruppenarbeiten genügen nicht mehr, um all diese Kompetenzen herauszubilden und den Herausforderungen des Berufslebens und der Informationsgesellschaft gerecht zu werden. Das Konzept "DIAMOND" (DIdactical Approach for Media cOmpeteNce Development) schafft einen Bezugrahmen für eine in das Curriculum integrierte umfassende und aktive Vermittlung von Methoden-, Sozial-, Fach-, Medien- und Informationskompetenz. Das über mehrere Jahre hinweg entwickelte und mehrfach erprobte Kursframework folgt einem aus sechs Bausteinen bestehendem Modell. Jeder Baustein (kontextuell, technisch, didaktisch, methodisch, pädagogisch, inhaltlich) besteht aus verschiedenen Aspekten, die in ihrer Gesamtheit die Herausbildung und Entwicklung von Schlüsselkompetenzen bei Studierenden ermöglichen und fördern. Der zugrundeliegende Ansatz des Blended Learning wird hierbei in mehrwertschaffender Form mit diversen neuen Medien und Systemunterstützungen (Topic Map basierte eLearningwebseite, Mediawiki, Lernplattform etc.) ergänzt, die in einem den Lehr- und Lernpozess unterstützenden Framework integriert sind. Ein Schwerpunkt liegt dabei auf einem kollaborativen Ansatz mit Hilfe einer WIKI-Software. Dieser umfassende didaktische Ansatz wird seit mehreren Jahren im ersten Semester des Studiums der Informationswissenschaft an der Hochschule für Technik und Wirtschaft Chur (HTW), University of Applied Science, im Grundlagenmodul erfolgreich eingesetzt und kontinuierlich weiterentwickelt.
  5. Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur (2005) 0.01
    0.0075735888 = product of:
      0.03408115 = sum of:
        0.004583237 = weight(_text_:of in 3245) [ClassicSimilarity], result of:
          0.004583237 = score(doc=3245,freq=6.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.07481265 = fieldWeight in 3245, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
        0.029497914 = weight(_text_:software in 3245) [ClassicSimilarity], result of:
          0.029497914 = score(doc=3245,freq=6.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.18979488 = fieldWeight in 3245, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
      0.22222222 = coord(2/9)
    
    Abstract
    Artikel als Reaktion auf das Angebot von Google: http://scholar.google.com/. Begleitkommentar des Verfassers: Der "Google-Scholar" (http://scholar.google.com/) ist durchaus eine bemerkenswerte Entwicklung von Google, welche die Internet-Suchtechnik voranbringt - zumindest vordergruendig. Der Satz auf der Scholar Startseite "Stand on the shoulders of giants" drueckt es treffend aus: derart gigantische Ressourcen hat eben im Suchmaschinenbereich sonst niemand. Und genau DAS ist der Punkt: das Quasi-Monopol von Google (spaeter u.U. Microsoft) wird dadurch NOCH staerker werden. Ich halte diese Entwicklung fuer bedrohlich. An dieser Stelle ist kein Vorwurf an Google zu richten: dort verhaelt man sich nur so, wie es der Markt verlangt. Der Vorwurf ist dorthin zu richten, wo diese Entwicklung gesehen und ignoriert wird. Ich erlebe es immer wieder, auch in "hochrangigen" Gespraechen, dass als "Argument" gegen alternative Enticklungen vorgebracht wird "was wollt ihr da eigentlich - es gibt doch Google und die sind doch gut". Solche Kurzsichtigkeit ist kaum uebertreffbar. Von der Zeitschrift "Technology Review" des Heise-Verlages (das deutsche Pendant zum MIT-Review) wurde ich gebeten, hierzu einen Artikel zu schreiben. Sie finden diesen Artikel bei Interesse im WWW unter http://suma-ev.de/tech-rev1.html Daraus hat sich eine Diskussion ueber unabhaengige Suchmaschinen ergeben, die ich hier kurz skizzieren moechte: ----------------------------------------------------------------------- Unabhaengige Suchmaschinen sind in einem weiten Spektrum von Moeglichkeiten denkbar: 1. von voellig freien, nicht strukturierten, losen Zusammenschluessen, z.B. auf Peer-to-Peer Basis (a la YACY: http://suma-lab.de/) 2. bis hin zu staatlich gewollter Unabhaengigkeit durch gesetzliche Regelungen (aehnlich der Intention beim oeffentlich-rechtlichen Rundfunk und Fernsehen); Stichwort: oeffentlich-rechtliche Suchmaschine 3. Dazwischen sind Optionen denkbar, die beides kombinieren: eine Vielzahl von Betreibern kleinerer Suchmaschinen (Mini-Sucher), die sich zu Verbuenden organisieren, in denen Organisationen des oeffentlich-rechtlichen Raumes, wie z.B. Bibliotheken und Universitaeten als klassische Wissensvermittler, eine tragende Rolle spielen. 4. Und moeglicherweise sehen SIE noch ganz andere Moeglichkeiten ...?
    Content
    Text des Artikels: "Wenn der Rohstoff des 21. Jahrhunderts wirklich Information ist, dann unterscheidet er sich grundlegend von seinen Vorgängern Eisenerz und Erdöl: Er verbraucht sich nicht, kann endlos wiederverwertet werden, ist einfach um die ganze Welt transportierbar, und kann sich sogar durch Neuzusammensetzung vermehren. Letztere Eigenschaft, so schön sie zunächst scheint, wird allmählich zur Plage. Die Menge der weltweit vorliegenden Information wächst seit Jahrhunderten stetig. Laut einem Bericht der University of California in Berkeley schafft die Menschheit derzeit ein bis zwei Exabyte (Milliarden Gigabyte) an Information pro Jahr. Dargestellt als Text entspricht das einem Stapel von rund einer Billion dicker Bücher - dessen Höhe etwa die 130-fachen Entfernung Erde-Mond erreichen würde. Die große Herausforderung ist, aus solch gigantischen Informationsmengen das subjektiv Wesentliche - also das Wissen - herauszusuchen. Die Wissensextraktion wird im digitalen Zeitalter zunehmend von Internet-Suchmaschinen übernommen. Sie verarbeiten den Rohstoff Information zu Wissen, kontrollieren und verteilen ihn. Es kann keinem Nutzer ganz geheuer sein, dass diese Schlüsselfunktion der Informationsgesellschaft in die Hände weniger Konzerne gerät: Google hat mit einem Marktanteil von mehr als 80 Prozent in Deutschland ein De-facto-Monopol erreicht, das nun Microsoft mit seiner "MSN Search" angreifen will. Aber diese Alternative weckt schwerlich mehr Vertrauen.
    Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
  6. cis: Nationalbibliothek will das deutsche Internet kopieren (2008) 0.01
    0.007362602 = product of:
      0.033131707 = sum of:
        0.023842877 = weight(_text_:software in 4609) [ClassicSimilarity], result of:
          0.023842877 = score(doc=4609,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.15340936 = fieldWeight in 4609, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4609)
        0.009288831 = product of:
          0.018577661 = sum of:
            0.018577661 = weight(_text_:22 in 4609) [ClassicSimilarity], result of:
              0.018577661 = score(doc=4609,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.1354154 = fieldWeight in 4609, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4609)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    "Ab heute müsste kopiert und abgespeichert werden - eigentlich. Fast jede Webseite, samt Bildern, Texten und sogar Audiodateien soll die Deutsche Nationalbibliothek archivieren, im Auftrag der Bundesregierung. Das Kopieren und Abspeichern sollen die Bundes-Bibliothekare aber nicht übernehmen. Das sollen die Seitenbetreiber machen. Am Donnerstag wurde die Verordnung über die Pflichtablieferung von Medienwerken an die Deutsche Nationalbibliothek im Bundesgesetzblatt veröffentlicht - damit ist sie rechtskräftig. Auf den Seiten der Deutschen Nationalbibliothek ist auch nachzulesen, was da von nun an alles gesammelt werden soll: "Alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden." Mit anderen Worten: Die Nationalbibliothek möchte in regelmäßigen Abständen vollständige Kopien des deutschen Internets bekommen, einschließlich multimedialer Elemente. Ausgenommen sind lediglich "zeitlich begrenzte Vorabveröffentlichungen, reine Software- oder Anwendungstools und auch Fernseh- und Hörfunkproduktionen" Der Branchenverband Bitkom hatte schon im vergangenen Jahr gegen das Gesetz protestiert, der Widerstand verpuffte jedoch ohne Konsequenz. Deutsche Firmen werde die tatsächliche Umsetzung der Regelung 115 Millionen Euro jährlich kosten, schätzte der Verband damals. Was an Kosten auf den Steuerzahler zukommt, ist noch vollkommen unklar. Die Regelung ist das Ergebnis eines Gesetzes, das schon aus dem Jahr 2006 stammt: Dem Gesetz über die Deutsche Nationalbibliothek ( DNBG). Jetzt ist das Gesetz samt erklärender Verordnung da - aber wie das alles genau funktionieren soll, wer die riesigen Mengen Speicherplatz zur Verfügung stehen wird, das scheint noch niemand so recht zu wissen.
    Date
    24.10.2008 14:19:22
  7. Foerster, H. von; Müller, A.; Müller, K.H.: Rück- und Vorschauen : Heinz von Foerster im Gespräch mit Albert Müller und Karl H. Müller (2001) 0.01
    0.005623473 = product of:
      0.025305627 = sum of:
        0.017343773 = weight(_text_:systems in 5988) [ClassicSimilarity], result of:
          0.017343773 = score(doc=5988,freq=4.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.14405504 = fieldWeight in 5988, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5988)
        0.007961854 = product of:
          0.015923709 = sum of:
            0.015923709 = weight(_text_:22 in 5988) [ClassicSimilarity], result of:
              0.015923709 = score(doc=5988,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.116070345 = fieldWeight in 5988, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5988)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    Noch einige Schritte weiter zurück. Oft haben mich Bibliothekare angesprochen, wie sollte man eine Bibliothek aufbauen? Wir schauen, sagten sie, in eine Bibliothek so hinein, als wäre sie wie ein Gedächtnis. "Das ist schön, aber wissen Sie, wie das Gedächtnis funktioniert? "Nein, aber viele Leute sagen, das Gedächtnis arbeitet wie eine große Bibliothek. Man muß nur hineingreifen und das richtige Buch finden. "Das ist alles wunderschön und sehr lieb, aber wissen Sie, die Leute, die ein Buch suchen, suchen es ja nur, weil sie ein Problem haben und hoffen, in dem Buch die Antwort für das Problem zu finden. Das Buch ist nur ein Zwischenträger von einer Frage und einer vielleicht in dem Buch zu findenden Antwort. Aber das Buch ist nicht die Antwort. "Aha, wie stellen Sie sich das vor? Wir sollten das Problem so sehen, daß die Inhalte der Bücher, die semantische Struktur - wenn man jetzt diesen Ausdruck wieder verwenden möchte - dieser Bücher in einem System sitzt, sodaß ich in diese semantische Struktur mit meiner Frage einsteigen kann, und mir die semantische Struktur dieses Systems sagt, dann mußt du Karl Müllers Arbeiten über Symbole lesen, dann wirst du wissen, was du suchst. Ich wüßte aber von vornherein überhaupt nicht, wer der Karl Müller ist, daß er über Symbole geschrieben hat, etc., aber das System kann mir das liefern.
    Da braucht also der Mensch, der sich dafür interessiert, solche Antworten zu finden, nicht erst indirekt über den Karl Müller, den er auf irgendeiner Karteikarte findet, dort hineinzugehen, sondern durch direktes Ansprechen der semantischen Struktur seines Problems, sich mit der semantischen Struktur des Systems in Verbindung setzen, das mir dann weiterhilft in diejenigen Bereiche zu gehen, in denen ich dann vielleicht Antworten für meine Probleme finde. Also mit solchen und ähnlichen Gedanken haben wir uns beschäftigt, und Paul Weston hat hervorragende Arbeiten dazu geschrieben, der hat durch diese Sache durchgeschaut. Der Projektvorschlag, den ich heute noch habe, für dieses unerhörte Riesenprojekt, das waren mehrere Millionen Dollar, wurde überhaupt nicht verstanden. Das brauchen wir nicht, wir haben ja die Bücher, wir haben ja die Karteikarten. Da waren eben Schwierigkeiten, wo mir meine Freunde richtig vorwerfen, Heinz, du hast unseren Fall nicht richtig vorgetragen, sodaß die Leute, die imstande gewesen wären, uns finanziell zu unterstützen, nicht verstanden haben, wovon du redest. Trotz meiner intensiven Bemühungen ist es in vielen Fällen nicht gelungen, eine Überzeugung, ein Verständnis zu erreichen. Mein Gefühl damals war, daß das Verständnis einfach blockiert war, weil schon bestimmte Verständnisdirektionen so festgefroren waren. Um etwas zu erreichen, hätte man viel mehr Zeit gebraucht und vielmehr miteinander sprechen sollen, um ein Verständnis durchzusetzen.
    Date
    10. 9.2006 17:22:54
  8. Wissen XXL : 7 Top-Titel im Powerpack (2001) 0.01
    0.005450622 = product of:
      0.0490556 = sum of:
        0.0490556 = weight(_text_:systems in 6127) [ClassicSimilarity], result of:
          0.0490556 = score(doc=6127,freq=2.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.4074492 = fieldWeight in 6127, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.09375 = fieldNorm(doc=6127)
      0.11111111 = coord(1/9)
    
    Imprint
    Delmenhorst : Mega Systems
  9. Enzyklopädie 2003 : Das Wissen der Welt (2003) 0.01
    0.005298417 = product of:
      0.047685754 = sum of:
        0.047685754 = weight(_text_:software in 1243) [ClassicSimilarity], result of:
          0.047685754 = score(doc=1243,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.30681872 = fieldWeight in 1243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1243)
      0.11111111 = coord(1/9)
    
    Content
    Lexikon mit über 120.000 Stichwörtern, mehr als 15.000 Bildern und über 100.000 Querverweisen - 10.000 ausführliche Personendarstellungen - Medizinlexikon mit mehr als 5.000 Begriffen - Tierlexikon mit der Beschreibung von mehr als 2.000 Tieren - Computerlexikon mit über 2.000 Begriffen - Länderlexikon mit 7.000 Stichwörtern und umfangreichem Kartenmaterial - Wörterbuch Englisch-Deutsch und Deusch-Englisch - Fremdwörterlexikon mit 25.000 Einträgen - 10.000 redaktionell betreute und kommentierte Internetlinks zu allen themengebieten - Mehr als 30 Stunden Video- und Tondokumente aus Kunst, Musik und Geschichte - Anschaulich lernen und verstehen mit Diagrammen, Tabellen und Originaltexten - Easy-to-use-Benutzerführung: Die Software sofort ohne Handbuchlesen intuitiv verstehen und bedienen - Immer topaktuell durch Update via Internet
  10. ¬Der Brockhaus in Text und Bild : Das Lexikon in der PC-Bibliothek (2003) 0.00
    0.0045415005 = product of:
      0.040873505 = sum of:
        0.040873505 = weight(_text_:software in 1664) [ClassicSimilarity], result of:
          0.040873505 = score(doc=1664,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.2629875 = fieldWeight in 1664, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=1664)
      0.11111111 = coord(1/9)
    
    Abstract
    Die Text-und-Bild-Version aus der Brockhausreihe punktet durch Schonung der PC-Ressourcen und weist auch durch die Basis-Software "PC-Bibliothek" einige Vorteile auf. Diese kann zusammen mit anderen Nachschlagewerken des Duden-/Brockhaus-Verlags verwendet werden, und die Umstellung auf neue Benutzeroberflächen wird umgangen. Die "PC-Bibliothek' verfügt neben der Standard-Ansicht auch über einen Expertenmodus mit exakten Suchmöglichkeiten. Der Verzicht auf grafischen Spielereien erweist sich als wohltuend und lenkt von der Information selbst kaum ab: Außerdem läuft das Werk auch auf Maschinen älteren Datums. Mit der Direktsuche greift das Lexikon Begriffe direkt aus einer anderen Anwendung heraus und stellt die ersten Zeilen des Artikels dar, ohne gleich das gesamte Programm zu öffnen. Die aktuelle Version ist durch einige Artikel auf 119.000 erweitert worden und enthält nun auch die digitale Version des Computer- und IT Brockhaus. Ein Dienst am Kunden ist durch den Verzicht auf das zwangsweise Einlegen der CD-ROM gelungen, wie es noch in der Ausgabe 2002 der Fall war. Den Schutz der Rechte in allen Ehren, aber diese Ambitionen hatten die Benutzerfreundlichkeit auf ein inakzeptables Maßherabgesetzt.
  11. Schulzki-Haddouti, C.: Mit Google durchs WWW : Was die immer populärer werdende Suchmaschine vom Rest der Welt unterscheidet (2001) 0.00
    0.0037845836 = product of:
      0.034061253 = sum of:
        0.034061253 = weight(_text_:software in 529) [ClassicSimilarity], result of:
          0.034061253 = score(doc=529,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.21915624 = fieldWeight in 529, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=529)
      0.11111111 = coord(1/9)
    
    Abstract
    Eine kleine, unscheinbare Suchmaschine hat sich in wenigen Monaten vom Geheimtipp zum Renner entwickelt: Google. Mitte Februar landete Google einen Coup: Es übernahm das Usenet-Archiv von Deja.com. Nicht erst damit ist Google die größte und intelligenteste Suchmaschine. Bis auf das Eingabefeld und das Google-Logo ist nichts zu sehen. Keine Kataloge, keine Nachrichten, kein Übersetzungsdienst, keine Werbung - kein Portal. Google kennt nur eins: Das Suchen von Informationen. Erstaunlich für den Erstnutzer: Oft stehen die relevanten Ergebnisse an erster Stelle. Google arbeitet mit einer ganzen Reihe von Tricks, um seine Nutzer nicht zu frustrieren. Sein Haupttrick: Es bewertet die Webseiten als wichtig, auf die viele andere Webseiten verweisen. Die Seite, auf die am häufigsten verwiesen wird, steht ganz oben. Auf diese Weise macht Google auch Nachbarschaften aus: Als "ähnliche Seite" von Telepolis findet man zum Beispiel c'theory. In der Nachbarschaft des Handelsblatts hingegen findet man andere Wirtschaftszeitungen und -magazine. Entwickelt wurde Google vom Computeringenieur Lawrence Page und dem Mathematiker Sergey Brin. Sie lernten sich an der Stanford University kennen, wo sie "einen Prototypen für eine umfassende Suchmaschine" entwickelten. Der Prototyp mit 24 Millionen Seiten samt Hyperlink-Datenbank war 1997 zunächst auf einem Server der Stanford-Universität zu bewundern. Heute ist Google eine florierende Firma. Rund 40 der 200 Mitarbeiter von Google haben einen Doktortitel, die Hälfte ist im Software-Engineering tätig
  12. Eversberg, B.: allegro und RDBMS : vergleichende Gegenüberstellung (2000) 0.00
    0.0037845836 = product of:
      0.034061253 = sum of:
        0.034061253 = weight(_text_:software in 974) [ClassicSimilarity], result of:
          0.034061253 = score(doc=974,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.21915624 = fieldWeight in 974, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=974)
      0.11111111 = coord(1/9)
    
    Theme
    Bibliographische Software
  13. Bourdon, F.: Funktionale Anforderungen an bibliographische Datensätze und ein internationales Nummernsystem für Normdaten : wie weit kann Normierung durch Technik unterstützt werden? (2001) 0.00
    0.003538602 = product of:
      0.031847417 = sum of:
        0.031847417 = product of:
          0.063694835 = sum of:
            0.063694835 = weight(_text_:22 in 6888) [ClassicSimilarity], result of:
              0.063694835 = score(doc=6888,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.46428138 = fieldWeight in 6888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6888)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    26.12.2011 12:30:22
  14. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.00
    0.003277546 = product of:
      0.029497914 = sum of:
        0.029497914 = weight(_text_:software in 1163) [ClassicSimilarity], result of:
          0.029497914 = score(doc=1163,freq=6.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.18979488 = fieldWeight in 1163, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
      0.11111111 = coord(1/9)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
    Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
  15. Wikipedia : die freie Enzyklopädie (2005) 0.00
    0.0032113262 = product of:
      0.028901935 = sum of:
        0.028901935 = weight(_text_:software in 44) [ClassicSimilarity], result of:
          0.028901935 = score(doc=44,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.18596025 = fieldWeight in 44, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=44)
      0.11111111 = coord(1/9)
    
    Content
    Unter den 200 Bänden der Digitalen Bibliothek sind bereits über 55 Lexika verlegt worden - mit dieser Wikipedia-DVD-ROM ist jedoch die bei weitem aktuellste und ungewöhnlichste Enzyklopädie erschienen. Die DVD-ROM-Edition basiert auf der deutschsprachigen Online-Enzyklopädie Wikipedia. Ihr Inhalt entspricht dem Stand der deutschsprachigen Wikipedia vom 3. März 2005, 00:00 Uhr und enthält damit über 200.000 Artikel. Das Konzept, einen bestimmten Redaktionsstand der ständig in Weiterbearbeitung begriffenen Online-Enzyklopädie festzuhalten und auf Datenträger zu bannen, wurde vom Verlag »Directmedia Publishing«, einigen aktiven Wikipedianern und dem Verein Wikimedia Deutschland - Gesellschaft zur Förderung Freien Wissens« entwickelt. Im Verlagsprogramm von Directmedia Publishing fehlte bislang ein allgemeines aktuelles Lexikon; und die Software der Digitalen Bibliothek eignet sich hervorragend für die Bewältigung größter Textmengen. Mit über 500.000 Bildschirmseiten ist dies gleichzeitig die bisher umfangreichste Ausgabe der digitalen Reihe. Für die Wikipedia ergibt sich mit einer Offline-Version die Möglichkeit, über das Internet hinaus Bekanntheit zu erlangen und neue Autoren zu gewinnen, die noch nicht oder nicht so sehr mit dem Internet und der Möglichkeit, eigene Inhalte dort zu veröffentlichen, vertraut sind. Das gemeinsame Projekt ist inhaltlich und technisch ein hochinteressantes Experiment. Da sich das Lexikon in manchen Dingen doch sehr von einer redaktionell betreuten Enzyklopädie unterscheidet, sind hier einige Hinweise zu Gestaltung und Handhabung nötig: Der Redaktionsstand wurde nicht beschönigt, d.h. bereits angelegte Artikel, zu denen nur wenig geschrieben wurde, oder offensichtlich noch mitten in der Bearbeitung stehende Artikel wurden so belassen. Für den Nutzer ergibt sich daraus immerhin der Hinweis, dass das angelegte Stichwort in der Online-Wikipedia vermutlich bereits weiter fortgeschritten ist. Zudem kann jeder Nutzer diese Artikel online ändern. So möchte diese DVD-ROM als Offline-Medium die Weiterbearbeitung der Inhalte nicht behindern, sondern vielmehr die Möglichkeit bieten, das bereits versammelte Wissen offline zu nutzen und trotzdem komfortabel zur Online-Wikipedia zu gelangen, um dort direkt Änderungen und Ergänzungen einzugeben. Deshalb können dieArtikel der Online-Wikipedia über das Kontextmenü der rechten Maustaste direkt angesprungen und verändert bzw. ergänzt werden. Dazu muss vorher eine Internetverbindung hergestellt werden. Nicht alle Bestandteile der Online-Wikipedia konnten vollständig übernommen werden; so musste beispielsweise aus Platzgründen eine relativ kleine Bildauswahl getroffen werden.
    Die Inhalte der Enzyklopädie sind frei und können von jedermann nach den Bestimmungen der GNU Freie Dokumentationslizenz genutzt, verändert und weiter verbreitet werden. »Als Enzyklopädie bezeichnet man den Versuch der vollständigen Darstellung des Wissens zu einem bestimmten Thema oder des gesamten Wissens der WeIt; ihr kennzeichnendes Merkmal gegenüber anderen Literaturgattungen ist der Universalitätsanspruch«. Aus dem Artikel »Enzyklöpädie«, Wikipedia vom 3. März 2005 Die Wikipedia ist der Versuch, eine völlig neue Art von Enzyklopädie zu erstellen. Sie wird nicht von einer handverlesenen Redaktion innerhalb der Mauern eines Verlagsgebäudes geschrieben, sondern entsteht in aller Öffentlichkeit; und jedermann ist herzlich eingeladen mitzuschreiben. Möglich macht dies ein so genanntes Wiki, eine spezielle Form von Redaktionssystem, das es jedermann erlaubt, die Inhalte der Website ohne technische Kenntnisse zu verändern. Mehrere tausend registrierte und anonyme Autoren auf der ganzen WeIt haben seit dem Start des Projektes im Jahr 2001 von diesem Angebot Gebrauch gemacht. Auf diese Art sind bereits über eine Million Artikel in mehr als 100 Sprachen entstanden. Und ein Ende ist nicht abzusehen: Rund um die Uhr arbeiten die freiwilligen, unbezahlten Autoren am weiteren Ausbau; sie verfassen Tag für Tag etwa 3.000 neue Artikel und verbessern bestehende. Kein Wikipedia-Artikel ist jemals fertig; alles ist »work in Progress«. Ständig ergänzen Autoren aktuelle Ereignisse und neue Entwicklungen und sind dabei oft sogar schneller als klassische Medien. Die Momentaufnahme auf dieser DVD teilt hingegen den Nachteil herkömmlicher Enzyklopädien: Sie spiegelt den Stand eines fixen Zeitpunktes wider, in diesem Fall den der Wikipedia am 3. März 2005. Eine weitere Besonderheit zeichnet die Wikipedia aus: Sie ist vollständig frei. Solange Sie die Autoren und die Quelle nennen, dürfen Sie sie frei kopieren, Freunden schenken, ausdrucken und verkaufen oder auch verändern. Dafür sorgt die »GNU Freie Dokumentationslizenz«, die ihren Ursprung in der Freie- Software-Bewegung hat und vergleichbar mit der Lizenz ist, der das Betriebssystem Linux seinen Erfolg verdankt.
  16. Sigel, A.: Informationsintegration mit semantischen Wissenstechnologien (2006) 0.00
    0.0031795297 = product of:
      0.028615767 = sum of:
        0.028615767 = weight(_text_:systems in 5174) [ClassicSimilarity], result of:
          0.028615767 = score(doc=5174,freq=2.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.23767869 = fieldWeight in 5174, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5174)
      0.11111111 = coord(1/9)
    
    Abstract
    Das Tutorium vermittelt theoretische Grundlagen der wissensorganisatorischen (semantischen) Integration und zeigt auch einige praktische Beispiele. Die Integration bezieht sich auf die Ebenen: Integration von ähnlichen Einträgen in verschiedenen Ontologien (Begriffe und Beziehungen) sowie von Aussagen über gleiche Aussagegegenstände und zugehörige Informationsressourcen. Hierzu werden ausgewählte semantische Wissenstechnologien (Topic Maps und RDF) und -werkzeuge vorgestellt und mit wissensorganisatorischen Grundlagen verbunden (z.B. SKOS - Simple Knowledge Organization Systems, http://www.w3.org/2004/02/skos/, oder Published Resource Identifiers).
  17. Borghoff, U.M.; Rödig, P.; Schmalhofer, F.: DFG-Projekt Datenbankgestützte Langzeitarchivierung digitaler Objekte : Schlussbericht Juli 2005 - Geschäftszeichen 554 922(1) UV BW Mänchen (2005) 0.00
    0.003027667 = product of:
      0.027249003 = sum of:
        0.027249003 = weight(_text_:software in 4250) [ClassicSimilarity], result of:
          0.027249003 = score(doc=4250,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.17532499 = fieldWeight in 4250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=4250)
      0.11111111 = coord(1/9)
    
    Abstract
    Über die letzten Jahrzehnte ist die Menge digitaler Publikationen exponentiell angestiegen. Doch die digitalen Bestände sind durch die schleichende Obsoletheit von Datenformaten, Software und Hardware bedroht. Aber auch die zunehmende Komplexität neuerer Dokumente und zugehöriger Abspielumgebungen stellt ein Problem dar. Das Thema der Langzeitarchivierung wurde lange vernachlässigt, rückt aber zunehmend ins Bewusstsein der Verantwortlichen und der Öffentlichkeit, nicht zuletzt wegen spektakulärer Datenverluste. Ziel dieser Studie ist es, Grundlagen und Bausteine für eine technische Lösung zu entwickeln und deren Einbettung in die Aufgabenbereiche einer Archivierungsorganisation aufzuzeigen. Es fehlt eine systematische Herangehensweise zum Aufbau technischen Wissens, die der Heterogenität und Komplexität sowie der bereits vorhandenen Obsoletheit in der Welt des digitalen Publizierens gerecht wird. In einem ersten Schritt entwickeln wir deshalb ein Modell, das sich spezifisch den technischen Aspekten digitaler Objekte widmet. Dieses Modell erlaubt es, digitale Objekte bezüglich der Archivierungsaspekte zu charakterisieren und zu klassifizieren sowie technische Grundlagen präzise zuzuordnen. Auf dieser Basis können u. a. systematisch modulare Metadatenschemata gewonnen werden, die den Langzeiterhalt gezielt unterstützen. Das Modell liefert außerdem einen Beitrag zur Formulierung von zugehörigen Ontologien. Des Weiteren fördern die Modularität der Metadatenschemata und die einheitliche Begrifflichkeit einer Ontologie die Föderation und Kooperation von Archivierungsorganisationen und -systemen. Die Abstützung auf das entwickelte Modell systematisiert in einem weiteren Schritt die Herleitung von technisch orientierten Prozessen zur Erfüllung von Archivierungsaufgaben. Der Entwicklung eines eigenen Modells liegt die Einschätzung zu Grunde, dass Referenzmodelle, wie OAIS (Open Archival Information System), zwar eine geeignete Ausgangsbasis auf konzeptioneller Ebene bieten, aber sie sind zu generell und beschreiben vor- oder nachgelagerte Prozesse nur als Schnittstelle. Die aus dem Modell hergeleiteten Lösungsansätze sind zunächst unabhängig von einer konkreten Realisierung. Als Beitrag zur Umsetzung wird in einem eigenen Abschnitt der Einsatz von Datenbankmanagementsystemen (DBMS) als Implementierungsbasis ausführlich diskutiert.
  18. Poggendorff, J.C.: Biographisch-literarisches Handwörterbuch der exakten Naturwissenschaften (2000) 0.00
    0.0029488353 = product of:
      0.026539518 = sum of:
        0.026539518 = product of:
          0.053079035 = sum of:
            0.053079035 = weight(_text_:22 in 6882) [ClassicSimilarity], result of:
              0.053079035 = score(doc=6882,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.38690117 = fieldWeight in 6882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6882)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    3. 4.1996 15:41:22
  19. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.00
    0.0029488353 = product of:
      0.026539518 = sum of:
        0.026539518 = product of:
          0.053079035 = sum of:
            0.053079035 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.053079035 = score(doc=611,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    22. 8.2009 12:54:24
  20. Grimm, J.; Grimm, W.: Deutsches Wörterbuch - Der digitale Grimm : Elektronische Ausgabe der Erstbearbeitung (2004) 0.00
    0.0029488353 = product of:
      0.026539518 = sum of:
        0.026539518 = product of:
          0.053079035 = sum of:
            0.053079035 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.053079035 = score(doc=1203,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.38690117 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1203)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    22. 7.2004 9:54:37