Search (304 results, page 1 of 16)

  • × year_i:[2000 TO 2010}
  • × type_ss:"el"
  1. Hammwöhner, R.: Qualitätsaspekte der Wikipedia (2007) 0.07
    0.06913148 = product of:
      0.20739442 = sum of:
        0.15885381 = weight(_text_:theorien in 2326) [ClassicSimilarity], result of:
          0.15885381 = score(doc=2326,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.5809698 = fieldWeight in 2326, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0625 = fieldNorm(doc=2326)
        0.048540607 = weight(_text_:der in 2326) [ClassicSimilarity], result of:
          0.048540607 = score(doc=2326,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5223744 = fieldWeight in 2326, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2326)
      0.33333334 = coord(2/6)
    
    Abstract
    Eine kritische Diskussion über ihre Verlässlichkeit begleitet die Entwicklung der Wikipedia von Beginn an. Mittlerweile liegen einige Publikationen vor, die sich mit der Qualität dieser neuen Enzyklopädie befassen. In diesem Betrag wird ein kurzer Überblick über mehrere dieser Arbeiten gegeben. Anschließend werden zwei eigene Studien vorgestellt, die sich mit Qualitätsaspekten befassen, die bisher weniger berücksichtigt wurden. In der ersten Studie wird die Abdeckung eines gut umgrenzten Themenkomplexes - Shakespeare's Werk - in mehreren Wikipedias untersucht. Die zweite Studie befasst sich mit der Qualität der Wissensorganisation in der Wikipedia.
    Source
    Wikis: Diskurse, Theorien und Anwendungen. Sonderausgabe von kommunikation@gesellschaft, Jg. 8. Online-Publikation. Hrsg.: C. Stegbauer u.a. [http://www.soz.uni-frankfurt.de/K.G/B3_2007_Hammwoehner.pdf]
  2. Schaefer, K.: ddc.deutsch - 590. Tiere : Mitarbeit im Expertenpool (2005) 0.05
    0.054689355 = product of:
      0.16406806 = sum of:
        0.12737481 = weight(_text_:einzelne in 3574) [ClassicSimilarity], result of:
          0.12737481 = score(doc=3574,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.52023137 = fieldWeight in 3574, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=3574)
        0.03669325 = weight(_text_:der in 3574) [ClassicSimilarity], result of:
          0.03669325 = score(doc=3574,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3948779 = fieldWeight in 3574, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3574)
      0.33333334 = coord(2/6)
    
    Abstract
    Bei dieser Projektarbeit handelt es sich um die fachliche Betreuung der ersten deutschen Übersetzung der DDCKlasse 590 Tiere. Diese Klasse umfasst die Zoologie (Naturgeschichte, Biologie, Ökologie, Ethologie, Tiergruppen, einzelne Arten). Nutztiere, Tierhaltung, Jagd und Veterinärmedizin werden von anderen Klassen abgedeckt. Fachbegriffe und Tiernamen (wissenschaftliche Namen, umgangssprachliche Namen) werfen bei der Übersetzung oft Probleme auf, die von Übersetzern allein nicht gelöst werden können. Hauptaufgabe war es, für diese Probleme fachlich fundierte Lösungen vorzulegen. Die Hintergründe der Probleme werden hier näher dargestellt und anhand einiger Beispiele verdeutlicht.
  3. Metzler Lexikon Sprache (2004) 0.05
    0.051112454 = product of:
      0.15333736 = sum of:
        0.048159894 = weight(_text_:der in 2818) [ClassicSimilarity], result of:
          0.048159894 = score(doc=2818,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5182773 = fieldWeight in 2818, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2818)
        0.10517747 = product of:
          0.21035494 = sum of:
            0.21035494 = weight(_text_:grammatik in 2818) [ClassicSimilarity], result of:
              0.21035494 = score(doc=2818,freq=2.0), product of:
                0.33637026 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.04159925 = queryNorm
                0.6253672 = fieldWeight in 2818, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2818)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das als Gemeinschaftswerk von fast 80 Fachwissenschaftlern erarbeitete »Metzler Lexikon Sprache« informiert in etwa 6.000 Einträgen über das Gesamtgebiet der Linguistik und gibt einen Überblick über die Sprachfamilien, Sprachgruppen und Einzelsprachen der Welt. Den Schwerpunkt bilden Begriffe aus der verschiedenen Disziplinen der Sprachwissenschaft wie Phonetik, Phonologie, Lexikologie, Morphologie Syntax, Semantik, Rhetorik, Stilistik und Pragmatik. Das Lexikon erfasst zudem die relevante Terminologie der historischen Sprachwissenschaft, der traditionellen und der heute maßgeblichen Richtungen de Linguistik, z.B. der generativen Grammatik oder der Valenzgrammatik. In großem Umfang sind auchBegriffe aus interdisziplinären Arbeitsfeldern wie Spracherwerbsforschung, Sprachdidaktik, Spracherziehung, Dialektforschung, Soziolinguistik, Sprachphilosophie, Textlinguistik und Computerlinguist aufgenommen.
  4. Löhrer, G.: Der Anti-Dualismus, sein Vokabular und dessen Ambiguität : eine methodische Bemerkung zu Searles monistischen Auffassungen in der Philosophie des Geistes (2005) 0.05
    0.047657773 = product of:
      0.14297332 = sum of:
        0.11914036 = weight(_text_:theorien in 4505) [ClassicSimilarity], result of:
          0.11914036 = score(doc=4505,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.43572736 = fieldWeight in 4505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.046875 = fieldNorm(doc=4505)
        0.023832968 = weight(_text_:der in 4505) [ClassicSimilarity], result of:
          0.023832968 = score(doc=4505,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.25648075 = fieldWeight in 4505, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4505)
      0.33333334 = coord(2/6)
    
    Abstract
    Wie passen mentale Phänomene wie Bewusstsein, Intentionalität und mentale Verursachung zum "Rest des Universums" und wie bringen wir unsere Theorien dieser Phänomene im Gebäude unserer übrigen Welterklärungen unter? Wie muss eine Theorie aussehen, die wissenschaftlichen Ansprüchen und neurowissenschaftlichen Erkenntnissen gerecht wird, ohne grundlegende Intuitionen und bewusste, subjektive wie qualitative Erfahrungen des Mentalen zu unterdrücken oder zu marginalisieren? - John Rogers Searle vertritt in seinem Buch Mind eine in Teilen verfeinerte Version jenes geschmeidigen Monismus, der auch seine früheren Arbeiten zur Philosophie des Geistes kennzeichnet. Ziel seiner Überlegungen ist eine, "biological naturalism" genannte, umfassende und einheitliche Theorie des Mentalen, die er für die Philosophie als das Projekt menschlicher Selbstverständigung für vordringlich hält. In ihrem Zentrum wiederum steht eine Theorie des Bewusstseins.
  5. Heuvelmann, R.: FRBR-Strukturierung von MAB-Daten, oder : Wieviel MAB passt in FRBR? (2005) 0.04
    0.03664905 = product of:
      0.10994714 = sum of:
        0.07960926 = weight(_text_:einzelne in 466) [ClassicSimilarity], result of:
          0.07960926 = score(doc=466,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 466, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=466)
        0.03033788 = weight(_text_:der in 466) [ClassicSimilarity], result of:
          0.03033788 = score(doc=466,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.326484 = fieldWeight in 466, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=466)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Expertengruppe MAB-Ausschuss (seit 2005: Expertengruppe Datenformate) hat sich im Verlauf des Jahres 2004 mit den FRBR und ihren Bezügen zum MABFormat befasst. Es wurde eine Tabelle FRBR => MAB erstellt (veröffentlicht unter http://www.ddb.de/professionell/pdf/frbr_mab.pdf), wichtige Ergebnisse wurden im Artikel "Maschinelles Austauschformat für Bibliotheken und die Functional Requirements for Bibliographic Records : Oder: Wieviel FRBR verträgt MAB?" im "Bibliotheksdienst" 39 (2005), Heft 10 zusammengefasst. Ergänzend dazu wurde bei der Arbeitsstelle Datenformate Der Deutschen Bibliothek versucht, MAB-Daten zu "frbrisieren", d. h. einzelne MAB-Datensätze in die vier Entitäten der Gruppe 1 (work / expression / manifestation / item) zu differenzieren. Ziel war nicht, einen fertigen OPAC-Baustein für die Indexierung, Benutzerführung oder Präsentation zu erstellen. Ziel war vielmehr, anhand von konkreten, in MAB strukturierten Daten die Schichten sichtbar zu machen. Ausgewählt für diesen Zweck wurde BISMAS, das "Bibliographische Informations-System zur Maschinellen Ausgabe und Suche" des BIS Oldenburg (www.bismas.de). In BISMAS ist es mit relativ geringem Aufwand möglich, die Präsentation eines Satzes - basierend auf der intern vorliegenden Datensatzstruktur, z.B. MAB - frei zu definieren. Die Gestaltung der Indices und der Ausgabeformate erfolgt in BISMAS mit Hilfe der Programmiersprache LM. Die Ergebnisse sollen hier anhand von Beispielen dargestellt werden.
  6. Hierarchisch strukturiertes Fachwortverzeichnis : Thesaurus Technik und Management (2005) 0.03
    0.030402448 = product of:
      0.09120734 = sum of:
        0.06368741 = weight(_text_:einzelne in 2252) [ClassicSimilarity], result of:
          0.06368741 = score(doc=2252,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 2252, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2252)
        0.027519938 = weight(_text_:der in 2252) [ClassicSimilarity], result of:
          0.027519938 = score(doc=2252,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29615843 = fieldWeight in 2252, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2252)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Thesaurus Technik und Management ist die umfangreichste strukturierte Sammlung des aktuellen Fachwortschatzes zur Technik und dem produktionsorientierten Management. Alle Begriffssätze sind alphabetisch aufgelistet. Die zum Begriffssatz gehörenden Vorzugsbenennungen, Synonyme, Unter-, Ober- und verwandte Relationen und Rückverweise sind gekennzeichnet. Enthält 37.100 Begriffsfamilien mit 51.700 deutschen und 54.900 englischen Fachwörtern zur Technik und aus dem techniknahen Managementvokabular. Alle deutschen Fachwörter haben ein englisches Synonym.
    Content
    Fortsetzung als WTI-Thesaurus: "Mit dem Thesaurus Technik und Management (TEMA) bietet wir Ihnen die umfangreichste strukturierte Sammlung des aktuellen Fachwortschatzes zur Technik und zum produktionsorientierten Management in deutscher und englischer Sprache. Der Thesaurus TEMA bietet Ihnen eine Verschlagwortung innerhalb unserer Datenbanken. Zudem können Sie dieses effiziente Hilfsmittel für Ihre Recherchen in großen Informationsbasen anderer Anbieter und Unternehmen einsetzen. Bereits Ihr Einstieg in die Informationssuche wird wesentlich leichter. Lassen Sie sich über den Thesaurus relevante Suchbegriffe sowie unter- und übergeordnete Begriffe komfortabel anzeigen. Mit den hinterlegten Synonymen erweitern und vervollständigen Sie Ihre Suche qualifiziert. Darüber hinaus bietet Ihnen dieses geniale Werkzeug weiteren Mehrwert. Der Thesaurus macht Sie über Verweise auf Begriffe aufmerksam, die direkten Bezug zu Ihrem Recherchethema haben. Angesichts der zunehmenden Informationsflut, die Sie in Unternehmen heute zu bewältigen haben, spielt der Einsatz klar strukturierter Terminologien in Verbindung mit Datenbanken, Information Management und Document Management Systemen für das interne Wissensmanagement eine immer größere Rolle. Zugleich können Sie auf dieser Grundlage interne und externe Informationen besser integrieren. Der Thesaurus TEMA wird von WTI fortlaufend gepflegt und in einem Gemeinschaftsprojekt mit der Technischen Informationsbibliothek Hannover (TIB) zu einer Ontologie "Technik" weiterentwickelt. WTI bietet Ihnen den Thesaurus TEMA oder einzelne Fachteile daraus zum Kauf an und unterstützt Sie bei seiner Einbindung in Ihre firmeninternen Informationssysteme. Vgl.: http://www.wti-frankfurt.de/de/thesaurus.
    Footnote
    Der Thesaurus wird für die Indexierung der FIZ Technik Fachdatenbanken TEMA, BEFO, BERG, DOMA, ETEC, ITEC, MEDI, TOGA, WEMA und ZDEE eingesetzt
  7. Grimm, J.; Grimm, W.: Deutsches Wörterbuch - Der digitale Grimm : Elektronische Ausgabe der Erstbearbeitung (2004) 0.02
    0.022634078 = product of:
      0.06790223 = sum of:
        0.03972161 = weight(_text_:der in 1203) [ClassicSimilarity], result of:
          0.03972161 = score(doc=1203,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42746788 = fieldWeight in 1203, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1203)
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.05636124 = score(doc=1203,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1203)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 7.2004 9:54:37
    Footnote
    Vgl. auch: Trauth-Marx, D.M.: "Die Sprache ist allen bekannt - und ein Geheimnis": Vor 150 Jahren erschien der erste Band des Deutschen Wörterbuches von Jakob und Wilhelm Grimm. In: Die Rheinpfalz. Nr. 165 vom 19.7.2004, S.01_Kult.
  8. Patalong, F.: Life after Google : I. Besser suchen, wirklich finden (2002) 0.02
    0.022433557 = product of:
      0.06730067 = sum of:
        0.03980463 = weight(_text_:einzelne in 1165) [ClassicSimilarity], result of:
          0.03980463 = score(doc=1165,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.1625723 = fieldWeight in 1165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
        0.027496038 = weight(_text_:der in 1165) [ClassicSimilarity], result of:
          0.027496038 = score(doc=1165,freq=46.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29590124 = fieldWeight in 1165, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
      0.33333334 = coord(2/6)
    
    Content
    "Google ist einfach zu bedienen, effektiv, bringt qualitativ hochwertige Suchergebnisse - und ist doch nicht der Weisheit letzter Schluss. Manchmal braucht man Alternativen, und mitunter sind die sogar weit besser als Google. Patentrezepte sind eine feine Sache, sie haben aber auch ihre Nachteile. Je stärker man sich auf sie stützt, desto eher läuft man Gefahr, alternative Ansätze zu verlernen oder zu vergessen. Dass es derzeit vielen Surfern so geht, könnten die Betreiber der meisten Suchmaschinen und Kataloge anhand ihrer Logstatistiken nachweisen: Google monopolisiert den Markt und nimmt den anderen die Butter vom Brot. Das ist nicht Googles Schuld. Der erst vier Jahre alte Suchdienst hat sich weltweit durchgesetzt, weil er nach wie vor die beste Suchtechnik bietet. Zurzeit gibt es wohl kaum eine einzelne Searchengine, die in ihrer Gesamtperformance, in Datenbankgröße und Güte der Ergebnisse mit Google wirklich mithalten könnte. So etwas spricht sich herum und hat dazu geführt, dass Google inzwischen den größten Batzen aller Suchanfragen im WWW abwickelt. Kleine wie große Konkurrenten drohen daran kaputtzugehen. Das wiederum wäre schade, denn es muss Alternativen geben: Google kann viel, aber er kann nicht alles.
    Google sucht "flach", weil "hochgestochenes" nicht populär ist Das Pageranking-System von Google, mit dem der Suchdienst Ergebnisse in eine "relevante" Reihenfolge bringt, begünstigt populäre Angebote. Fachleute suchen vielleicht gerade die bewusst nicht. Sie sind in aller Regel mit Suchen über Kataloge oder spezialisierte Suchdienste besser bedient. Da keine Suchmaschine es schafft, das WWW, geschweige denn das Internet vollständig abzudecken, gelingt es vielen Suchmaschinen immer wieder, in bestimmten Suchfeldern, Themenbereichen oder auch über regionale Ansätze und Schwerpunkte zu qualitativ hochwertigen Ergebnissen zu kommen, die auch Google ausstechen. Ganz besonders gilt dies für alle Dienste, die gezielt im so genannten "Deep Web" suchen: Gemeint sind damit vor allem Datenbankbestände. An die kommt Google in den seltensten Fällen heran, aber gerade hier sind zumindest im Kontext professioneller Recherchen die Perlen im Web verborgen - egal, ob man Ingenieur, Bibliothekar, Arzt, Möbelrestaurator oder Journalist ist. Patentrezepte gibt es hier nicht, weil alles Suchen im Web abhängig ist von den Interessen des Suchenden. Stets up to date über das Angebot auch an spezialisierten Suchdiensten ist aber die Website Searchenginewatch: Hier sind unter "Specialty Search Engines" entsprechende Links zu finden. Zumindest eines lässt sich pauschal und problemlos für alle Suchenden im Web konstatieren: Es kann nicht schaden, eine Alternative zu Google zu pflegen. Metasucher: Mit Masse zur Klasse Neben kraftvollen Suchmaschinen wie Altavista, Hotbot, Teoma, Wisenut, Inktomi oder AlltheWeb , die alle ihre Eigenheiten, Stärken und Schwächen besitzen (ausprobieren!), glänzen vor allem auch die Metasuchdienste. Das sind Websites, die über ein Suchformular parallel eine ganze Reihe von Quellen abfragen können und die Ergebnisse zusammenfassen. Metasearcher kommen und gehen und leben dabei - aus Perspektive der Surchengine-Anbieter - quasi parasitär auf Kosten der Suchmaschinen. Aus Nutzerperspektive haben sie allerdings einiges zu bieten, und die besten unter ihnen bringen tatsächlich eigene Leistungen ein, die die Qualität der bei anderen Suchdiensten gesammelten Ergebnisse steigert. Denn Metamaschinen "verbreitern" die Suche nicht nur, sie engen sie auch ein: Ein Beispiel wie Ithaki macht das sehr schön deutlich. Der Suchdienst fragt nur Kataloge für Kinderseiten ab - und wer weiß, wie dürftig die in aller Regel für sich genommen sind, wird für den breiteren, aber fest definierten Ansatz dankbar sein. Typisch: So was gibt es für den deutschsprachigen Raum natürlich wieder nicht.
    Viel abfragen, präzise einengen Ein guter, allgemeiner Metadienst ist auch Ixquick , der in seiner deutschen Version zwölf Searchengines parallel abfragt. Mit im Päckchen: Eine Reihe spezifisch deutscher Engines, ernsthafte Google-Konkurrenten wie AlltheWeb oder AskJeeves/Teoma bis hin zu Katalogen. Google dagegen fehlt, was die ganze Sache nicht nur zum echten Alternativprogramm macht, sondern auch zur sinnvollen Ergänzung: Tests deuten darauf hin, dass Google im Diffusen weit besser fischt, Ixquick bei sehr konkreten Aufgaben aber deutlich bessere Ergebnisse zeigt. Im Klartext: Bei Google ist die Chance größer, den Ex-Klassenkameraden wiederzufinden, bei Ixquick findet man dagegen seinen Fachaufsatz an der Uni Antwerpen. Das hat was, und es ist kein Zufall: Der niederländische Dienst Ixquick leistet es sich, die bei diversen Diensten gefundenen Resultate neu zu gewichten und zu ordnen. Ganz nebenbei killt er dabei auch noch sämtliche Doppler. Brauchbar ist dabei wiederum wirklich nur die Metasuche: Die anderen Suchoptionen (Bilder, News, MP3) bieten vergleichsweise wenig. Das gewöhnt den Surfer dann wieder daran, dass es oft besser ist, mehrere Quellen gegeneinander zu konsultieren. Weder die Bildsuche von Google, noch die von Altavista ist wirklich gut - in Kombination aber decken sie eine Menge ab.
    Auch das bringt was: Gezielte Plattformwechsel Das versucht auch ein Dienst wie Pandia : Der Metasearcher kombiniert in seinen Anfragen gute Searchengines mit der Vollindexierung qualitativ hochwertiger Inhalte-Angebote. So kombiniert Pandia gezielt die Encyclopedia Britannica, Lexika und Searchengines mit den Datenbeständen von Amazon. Wozu das gut sein soll und kann, zeigt das praktische Beispiel einer sehr sachlich orientierten Suche: "Retina Implant". Dabei geht es um Techniken, über oparative Eingriffe und Implantate an Netzhaut-Degeneration erblindeter Menschen das Augenlicht (zumindest teilweise) wieder zu geben. Pandia beantwortet die Suche zunächst mit dem Verweis auf etliche universitäre und privatwirtschaftliche Forschungsinstitute. 13 von 15 Suchergebnissen sind 100 Prozent relevant: Hier geht es ab in die Forschung. Die letzten beiden verweisen zum einen auf eine Firma, die solche Implantate herstellt, die andere auf einen Fachkongress unter anderem zu diesem Thema: Das ist schon beeindruckend treffsicher. Und dann geht's erst los: Mit einem Klick überträgt Pandia die Suchabfrage auf das Suchmuster "Nachrichtensuche", als Resultat werden Presse- und Medienberichte geliefert. Deren Relevanz ist leicht niedriger: Um Implantate geht es immer, um Augen nicht unbedingt, aber in den meisten Fällen. Nicht schlecht. Noch ein Klick, und die Suche im "Pandia Plus Directory" reduziert die Trefferanzahl auf zwei: Ein Treffer führt zur Beschreibung des universitären "Retinal Implant Project", der andere zu Intelligent Implants, einer von Bonner Forschern gegründeten Firma, die sich auf solche Implantate spezialisiert hat - und nebenbei weltweit zu den führenden zählt. Noch ein Klick, und Pandia versucht, Bücher zum Thema zu finden: Die gibt es bisher nicht, aber mit Pandias Hilfe ließe sich sicher eins recherchieren und schreiben. Trotzdem: Keiner der angesprochenen Dienste taugt zum Universalwerkzeug. Was der eine kann, das schafft der andere nicht. Da hilft nur ausprobieren. Der Suchdienst muss zum Sucher passen. Fazit und Ausblick So gut Google auch ist, es geht noch besser. Die intelligente Kombination der besten Fertigkeiten guter Suchwerkzeuge schlägt selbst den Platzhirsch unter den Suchdiensten. Doch darum geht es ja gar nicht. Es geht darum, die Suche im Web effektiv zu gestalten, und das will nach wie vor gelernt sein. Noch einfacher und effektiver geht das mit zahlreichen, oft kostenlosen Werkzeugen, die entweder als eigenständige Software (Bots) für Suche und Archivierung sorgen, oder aber als Add-On in den heimischen Browser integriert werden können. Doch dazu mehr im zweiten Teil dieses kleinen Web-Wanderführers"
    Footnote
    Zum Thema: Im Internet: · Searchenginewatch http://www.searchenginewatch.com · Searchenginewatch: Spezialsuchdienste http://www.searchenginewatch.com/links/specialty.html · Ixquick Metasuche http://www.ixquick.com/ · Pandia Metasearchdienst http://www.pandia.com · Ithaki: Metasuchdienst für Kinderthemen http://www.ithaki.net/kids/ · Metaspinner: Deutscher Metasuchdienst mit vielen speziellen Suchmöglichkeiten http://www.metaspinner.de · AlltheWeb: Googles Herausforderer http://www.alltheweb.com/ · AltaVista: Der ehemalige Marktführer hat mächtig aufgerüstet http://www.altavista.com/ · Inktomi: Suchdienstleister im Hintergrund http://www.inktomi.com/ · Wisenut: Viel versprechender Newcomer, der dringend ein Update gebrauchen könnte http://www.wisenut.com · Teoma sucht anders: Im Doppel mit AskJeeves ein Klasse-Angebot, bisher ohne die nötige Masse http://www.teoma.com · Hotbot: Einst intelligenteste Searchengine, bis heute guter Service http://www.hotbot.lycos.com · ...und natürlich der Dienst, an dem sich alle messen müssen: Google http://www.google.com/intl/de/
  9. Van der Veer Martens, B.: Do citation systems represent theories of truth? (2001) 0.02
    0.0209289 = product of:
      0.0627867 = sum of:
        0.02293328 = weight(_text_:der in 3925) [ClassicSimilarity], result of:
          0.02293328 = score(doc=3925,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.2467987 = fieldWeight in 3925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3925)
        0.039853416 = product of:
          0.07970683 = sum of:
            0.07970683 = weight(_text_:22 in 3925) [ClassicSimilarity], result of:
              0.07970683 = score(doc=3925,freq=4.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.54716086 = fieldWeight in 3925, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3925)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 7.2006 15:22:28
  10. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.02
    0.020445561 = product of:
      0.06133668 = sum of:
        0.027519938 = weight(_text_:der in 4888) [ClassicSimilarity], result of:
          0.027519938 = score(doc=4888,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29615843 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4888)
        0.033816744 = product of:
          0.06763349 = sum of:
            0.06763349 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.06763349 = score(doc=4888,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit einem Überblick über: Probleme, Methoden, Stand der Forschung u. Literatur.
    Date
    1. 3.2013 14:56:22
  11. Poggendorff, J.C.: Biographisch-literarisches Handwörterbuch der exakten Naturwissenschaften (2000) 0.02
    0.020204393 = product of:
      0.060613178 = sum of:
        0.032432556 = weight(_text_:der in 6882) [ClassicSimilarity], result of:
          0.032432556 = score(doc=6882,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 6882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=6882)
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 6882) [ClassicSimilarity], result of:
              0.05636124 = score(doc=6882,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 6882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6882)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    3. 4.1996 15:41:22
    Editor
    Sächsische Akademie der Wissenschaften zu Leipzig
  12. Mitchell, J.S.: DDC 22 : an introduction (2003) 0.02
    0.020054316 = product of:
      0.060162947 = sum of:
        0.016053297 = weight(_text_:der in 1936) [ClassicSimilarity], result of:
          0.016053297 = score(doc=1936,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.17275909 = fieldWeight in 1936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1936)
        0.04410965 = product of:
          0.0882193 = sum of:
            0.0882193 = weight(_text_:22 in 1936) [ClassicSimilarity], result of:
              0.0882193 = score(doc=1936,freq=10.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.6055961 = fieldWeight in 1936, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1936)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Dewey Decimal Classification and Relative Index, Edition 22 (DDC 22) will be issued simultaneously in print and web versions in July 2003. The new edition is the first full print update to the Dewey Decimal Classification system in seven years-it includes several significant updates and many new numbers and topics. DDC 22 also features some fundamental structural changes that have been introduced with the goals of promoting classifier efficiency and improving the DDC for use in a variety of applications in the web environment. Most importantly, the content of the new edition has been shaped by the needs and recommendations of Dewey users around the world. The worldwide user community has an important role in shaping the future of the DDC.
    Footnote
    Vortrag anläßlich der 69. IFLA-Tagung 2003, Berlin (engl. Fassung)
    Object
    DDC-22
  13. Schetsche, M.: ¬Die ergoogelte Wirklichkeit : Verschwörungstheorien und das Internet (2005) 0.02
    0.017771278 = product of:
      0.05331383 = sum of:
        0.036405455 = weight(_text_:der in 3397) [ClassicSimilarity], result of:
          0.036405455 = score(doc=3397,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3917808 = fieldWeight in 3397, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3397)
        0.016908372 = product of:
          0.033816744 = sum of:
            0.033816744 = weight(_text_:22 in 3397) [ClassicSimilarity], result of:
              0.033816744 = score(doc=3397,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.23214069 = fieldWeight in 3397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3397)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    "Zweimal täglich googeln" empfiehlt Mathias Bröckers in seinem Buch "Verschwörungen, Verschwörungstheorien und die Geheimnisse des 11.9.". Der Band gilt den gutbürgerlichen Medien von FAZ bis Spiegel als Musterbeispiel krankhafter Verschwörungstheorie. Dabei wollte der Autor - nach eigenem Bekunden - keine Verschwörungstheorie zum 11. September vorlegen, sondern lediglich auf Widersprüche und Fragwürdigkeiten in den amtlichen Darstellungen und Erklärungen der US-Regierung zu jenem Terroranschlag hinweisen. Unabhängig davon, wie ernst diese Einlassungen des Autors zu nehmen sind, ist der "Fall Bröckers" für die Erforschung von Verschwörungstheorien unter zwei Aspekten interessant: Erstens geht der Band auf ein [[extern] ] konspirologisches Tagebuch zurück, das der Autor zwischen dem 13. September 2001 und dem 22. März 2002 für das Online-Magazin Telepolis verfasst hat; zweitens behauptet Bröckers in der Einleitung zum Buch, dass er für seine Arbeit ausschließlich über das Netz zugängliche Quellen genutzt habe. Hierbei hätte ihm Google unverzichtbare Dienste geleistet: Um an die Informationen in diesem Buch zu kommen, musste ich weder über besondere Beziehungen verfügen, noch mich mit Schlapphüten und Turbanträgern zu klandestinen Treffen verabreden - alle Quellen liegen offen. Sie zu finden, leistete mir die Internet-Suchmaschine Google unschätzbare Dienste. Mathias Bröckers
  14. Schneider, R.: Bibliothek 1.0, 2.0 oder 3.0? (2008) 0.02
    0.017277677 = product of:
      0.051833026 = sum of:
        0.032106593 = weight(_text_:der in 6122) [ClassicSimilarity], result of:
          0.032106593 = score(doc=6122,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 6122, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6122)
        0.019726433 = product of:
          0.039452866 = sum of:
            0.039452866 = weight(_text_:22 in 6122) [ClassicSimilarity], result of:
              0.039452866 = score(doc=6122,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.2708308 = fieldWeight in 6122, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6122)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Noch ist nicht entschieden mit welcher Vehemenz das sogenannte Web 2.0 die Bibliotheken verändern wird. Allerdings wird hier und da bereits mit Bezugnahme auf das sogenannte Semantic Web von einer dritten und mancherorts von einer vierten Generation des Web gesprochen. Der Vortrag hinterfragt kritisch, welche Konzepte sich hinter diesen Bezeichnungen verbergen und geht der Frage nach, welche Herausforderungen eine Übernahme dieser Konzepte für die Bibliothekswelt mit sich bringen würde. Vgl. insbes. Folie 22 mit einer Darstellung von der Entwicklung vom Web 1.0 zum Web 4.0
    Content
    Vortrag während der 10. InetBib-Tagung, 09.-10.04.2008 in Würzburg. - Vgl. auch: http://blog.juergen-luebeck.de/archives/1118-Eins,-zwei,-drei,-vier.html#extended
  15. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.02
    0.017277677 = product of:
      0.051833026 = sum of:
        0.032106593 = weight(_text_:der in 4324) [ClassicSimilarity], result of:
          0.032106593 = score(doc=4324,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 4324, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.019726433 = product of:
          0.039452866 = sum of:
            0.039452866 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.039452866 = score(doc=4324,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  16. Tudhope, D.; Hodge, G.: Terminology registries (2007) 0.02
    0.017037967 = product of:
      0.0511139 = sum of:
        0.02293328 = weight(_text_:der in 539) [ClassicSimilarity], result of:
          0.02293328 = score(doc=539,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.2467987 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=539)
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 539) [ClassicSimilarity], result of:
              0.05636124 = score(doc=539,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 539, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=539)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    Präsentation während der Veranstaltung "Networked Knowledge Organization Systems and Services: The 6th European Networked Knowledge Organization Systems (NKOS) Workshop, Workshop at the 11th ECDL Conference, Budapest, Hungary, September 21st 2007".
    Date
    26.12.2011 13:22:07
  17. Henrich, A.: Information Retrieval : Grundlagen, Modelle und Anwendungen (2008) 0.02
    0.016163513 = product of:
      0.04849054 = sum of:
        0.025946045 = weight(_text_:der in 1525) [ClassicSimilarity], result of:
          0.025946045 = score(doc=1525,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27922085 = fieldWeight in 1525, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1525)
        0.022544496 = product of:
          0.04508899 = sum of:
            0.04508899 = weight(_text_:22 in 1525) [ClassicSimilarity], result of:
              0.04508899 = score(doc=1525,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.30952093 = fieldWeight in 1525, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1525)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Sehr ausführliches Skript zu Veranstaltungen. Der vorliegende Lehrtext ist in seiner ursprünglichen Form um das Jahr 2000 entstanden und seitdem kontinuierlich weiterentwickelt worden. Er war und ist Grundlage diverser Lehrveranstaltungen des Lehrstuhls für Medieninformatik ( http://www.uni-bamberg.de/minf) an der Otto- Friedrich-Universität Bamberg.
    Date
    22. 8.2015 21:23:08
  18. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.02
    0.015198546 = product of:
      0.04559564 = sum of:
        0.03432339 = weight(_text_:der in 3284) [ClassicSimilarity], result of:
          0.03432339 = score(doc=3284,freq=28.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.36937445 = fieldWeight in 3284, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.011272248 = product of:
          0.022544496 = sum of:
            0.022544496 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.022544496 = score(doc=3284,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
    Date
    22. 1.2010 14:41:24
  19. Schröder, B.: Geschichtsverdrehungen (2003) 0.01
    0.014809437 = product of:
      0.04442831 = sum of:
        0.027519938 = weight(_text_:der in 1373) [ClassicSimilarity], result of:
          0.027519938 = score(doc=1373,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29615843 = fieldWeight in 1373, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1373)
        0.016908372 = product of:
          0.033816744 = sum of:
            0.033816744 = weight(_text_:22 in 1373) [ClassicSimilarity], result of:
              0.033816744 = score(doc=1373,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.23214069 = fieldWeight in 1373, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1373)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Microsoft Encarta sieht die Geschichte Palästinas aus einer einseitigen Perspektive. Wer in alten Zeiten etwas über die Welt erfahren wollte, kaufte sich den legendären "Brockhaus", Meyers Konversationslexikon oder das "Große Bertelsmann Volkslexikon". Derartige Bücher waren auch innenarchitektonisch wertvoll, weil man sie als Zeichen der Bildung, gemessen in Kubikmetern, in der Schrankwand gut sichtbar platzieren konnte. Nachschlagewerke waren praktisch "für die Wissensbedürfnisse des bürgerlichen Alltags". Für den bürgerlichen Alltag mit dem Computer, der von Windows-Produkten wimmelt, bietet sich heute die Microsoft Encarta als Compact Disk an, eine Enzyklopädie des Wissens für den Hausgebrauch. Nur steht dort an manchen Stellen grober Unfug. Und wenn es um Israel geht, fragt man sich, ob die in der deutschen "Encarta" vertretenen Thesen nur schlecht redigiert sind oder ob Microsoft anti-israelische Vorurteile bewusst fördern will. Das jüdische Portal haGalil spricht sogar von "Geschichtsverdrehung unter enzyklopädischem Deckmäntelchen"
    Date
    24. 2.2003 14:22:57
  20. Knutsen, U.: Working in a distributed electronic environment : Experiences with the Norwegian edition (2003) 0.01
    0.014349846 = product of:
      0.043049537 = sum of:
        0.03177729 = weight(_text_:der in 1937) [ClassicSimilarity], result of:
          0.03177729 = score(doc=1937,freq=24.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34197432 = fieldWeight in 1937, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1937)
        0.011272248 = product of:
          0.022544496 = sum of:
            0.022544496 = weight(_text_:22 in 1937) [ClassicSimilarity], result of:
              0.022544496 = score(doc=1937,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.15476047 = fieldWeight in 1937, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1937)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Einführung der Dewey-Dezimalklassifikation (DDC) in Norwegen ist das Verdienst eines Mannes und Ergebnis seiner Suche nach beruflichem Erfolg. In den späten achtziger Jahren des 19. Jahrhunderts kaufte der Student und Bohemien Haakon Nyhuus eine einfache Fahrkarte in die USA. Zufällig bot man ihm eine Arbeit in der Newberry Library in Chicago an, wo er William F. Poole kennen lernte, der von dem jungen Mann beeindruckt war und ihn als Leiter der Katalogabteilung der Chicago Public Library empfahl. Seine bibliothekarische Karriere dort war so kurz wie sein Aufenthalt in den USA. 1897 kehrte er nach Norwegen zurück und übernahm die Leitung der Stadtbibliothek von Oslo. Nyhuus wurde bald der bedeutendste Bibliotheksreformer, den es in Norwegen je gab. 1898 führte er die DDC in der Bibliothek ein. Nyhuus schätzte die DDC nicht besonders und bezeichnete sie als "alte Kutsche mit zehn Rädern, von denen einige ein wenig aus dem Gleichgewicht geraten und durch Kummer und Tränen abgenützt sind". Trotzdem ist es ihm zuzuschreiben, dass die DDC heute in allen öffentlichen Bibliotheken und einer großen Anzahl wissenschaftlicher Bibliotheken in Norwegen verwendet wird. Norwegen ist ein dünn bevölkertes Land mit etwa 4,5 Millionen Einwohnern. Die Bibliotheken sind meist klein und ihre Bestände eher begrenzt. Selbst wenn die großen Universitätsbibliotheken und Bibliotheken mit Spezialsammlungen dazu tendieren, die internationale Ausgabe in vier Bänden zu benutzen, betrachten die meisten Bibliotheken die Hilfstafeln als zu detailliert für ihre Zwecke. Es gibt einen großen Bedarf an Terminologie auf Norwegisch. Einige Subject Gateways und Nachweise sind entsprechend der DDC organisiert und die norwegische Ausgabe bildet eine wichtige Grundlage für die Bildung von Schlagwörtern. Deshalb ist es in Norwegen Tradition, jede zweite vollständige Ausgabe der DDC ins Norwegische zu übersetzen, zu kürzen und entsprechend dem nationalen Literaturaufkommen leicht anzupassen.
    Content
    Vortrag während der 69. IFLA General conference and Council, 1.-9.8.2003 in Berlin; Deutsche Fassung unter: http://www.ifla.org/IV/ifla69/papers/122g trans-Knutsen.pdf
    Object
    DDC-22

Languages

  • d 183
  • e 102
  • a 11
  • el 2
  • s 1
  • More… Less…

Types

  • a 31
  • i 31
  • x 14
  • m 12
  • r 8
  • n 4
  • l 2
  • b 1
  • s 1
  • More… Less…

Classifications