Search (1106 results, page 55 of 56)

  • × type_ss:"el"
  1. Zemanek, M.: Was hat die Wahl des Jokers in der Millionenshow mit Informationskompetenz zu tun? : das Framework der ACRL in der Vermittlung von Informationskompetenz (2021) 0.00
    0.0011836614 = product of:
      0.0035509842 = sum of:
        0.0035509842 = product of:
          0.0071019684 = sum of:
            0.0071019684 = weight(_text_:of in 305) [ClassicSimilarity], result of:
              0.0071019684 = score(doc=305,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.103663445 = fieldWeight in 305, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.046875 = fieldNorm(doc=305)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Einer eher ergebnisorientierten Wissensvermittlung in der Schule steht der diskurshafte Charakter der Wissensentstehung und -weitergabe in der Wissenschaft gegenüber. Im Übergang von der Schule zur Hochschule kommt Vorstellungen der Studienanfänger*innen über die Entstehung und Verlässlichkeit sowie über den Erwerb von Wissen besondere Bedeutung zu. Für Studierende sind sie eine wichtige Grundlage für das Verständnis von Wissenschaft und Forschung. Das Framework for Information Literacy for Higher Education der Association of College & Research Libraries (ACRL) formuliert diese Einsichten als Schwellenkonzepte, deren Vermittlung eine konzeptuelle Veränderung bei den Lernenden hervorrufen soll. Das Framework wird im Kontext von Problemstellungen und Erkenntnissen zur Vermittlungspraxis im Hochschulkontext dargestellt und dessen Praxistauglichkeit und Nutzen für verschiedene Zielgruppen und in verschiedenen Kontexten reflektiert. Die Schwellenkonzepte werden in Beziehung zum Konzept der "epistemischen Überzeugungen" gesetzt, die subjektives Wissen über Information und Wissen repräsentieren. Beispiele aus der Unterrichtpraxis der Autorin werden gezeigt.
  2. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 2: Wie sich "Informationskompetenz" methodisch-operativ untersuchen lässt Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.00
    0.0011836614 = product of:
      0.0035509842 = sum of:
        0.0035509842 = product of:
          0.0071019684 = sum of:
            0.0071019684 = weight(_text_:of in 346) [ClassicSimilarity], result of:
              0.0071019684 = score(doc=346,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.103663445 = fieldWeight in 346, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.046875 = fieldNorm(doc=346)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  3. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.00
    0.0011836614 = product of:
      0.0035509842 = sum of:
        0.0035509842 = product of:
          0.0071019684 = sum of:
            0.0071019684 = weight(_text_:of in 406) [ClassicSimilarity], result of:
              0.0071019684 = score(doc=406,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.103663445 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  4. Wiesenmüller, H.: Zehn Jahre 'Functional Requirements for Bibliographic Records' (FRBR) : Vision, Theorie und praktische Anwendung (2008) 0.00
    0.0011159667 = product of:
      0.0033479 = sum of:
        0.0033479 = product of:
          0.0066958 = sum of:
            0.0066958 = weight(_text_:of in 2616) [ClassicSimilarity], result of:
              0.0066958 = score(doc=2616,freq=4.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.09773483 = fieldWeight in 2616, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2616)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Mithilfe der FRBR, an denen sich auch das neue Regelwerk RDA orientiert, sollen Katalognutzer auf neuar-tige Weise im 'bibliographischen Universum' navigieren können. Der Beitrag erläutert und diskutiert einer-seits die zentralen Elemente des theoretischen Modells, andererseits die Chancen und Probleme einer prakti-schen Umsetzung. Die in Deutschland vorhandenen Datenstrukturen bilden dafür eine vergleichsweise gute Ausgangsbasis. Denkbar ist aber auch eine virtuelle 'FRBRisierung' ohne Eingriff in den Datenbestand. Ein Jahrzehnt ist vergangen, seitdem der Abschlussbericht der 'Functional Requirements for Bibliographic Records' von der IFLA veröffentlicht wurde; seit 2006 liegt auch eine deutsche Übersetzung vor. Entwickelt wurde das dort beschriebene und unter der Abkürzung FRBR (auf Englisch zumeist "för-bör" ausgesprochen) bekannt gewordene Modell zwischen 1992 und 1997; die erste Anregung ging auf ein Seminar in Stockholm im Jahr 1990 zurück. Zahllose Arbeiten - wenn auch nur sehr wenige davon auf Deutsch - sind über die FRBR geschrieben worden, und auch im neuen Regelwerk 'Resource Description and Access' (RDA) spielen FRBR-Konzepte eine große Rolle. Umso bemerkenswerter ist es, dass auch im Jahr 2008 viele Bibliothekare nur eine vage Vorstellung davon haben - übrigens nicht nur im deutschsprachigen Raum, sondern auch in den USA: Robert L. Maxwell resümierte jüngst, dass "many librarians even now do not know what to make of it". . . . Auf alle Fälle ist es nun - zehn Jahre nach der FRBR-Studie - auch für deutschsprachige Bibliothekare an der Zeit, sich verstärkt mit den FRBR auseinanderzusetzen. Die Erfahrungen aus der eigenen Katalogtradi-tion, die in mancherlei Hinsicht schon FRBR-Qualität besitzt, sollte man dabei selbstbewusst in die internationale Diskussion einbringen. Besonders wichtig ist es, möglichst bald den Schritt von der Theorie in die Praxis zu gehen und unsere Kataloge mit erweiterten FRBR-Funktionalitäten anzureichern. Auch wenn man bei der Umsetzung Augenmaß walten lässt, so bedeutet dies natürlich trotzdem zusätzlichen Aufwand, der sich schlecht in die vorhandenen Rahmenbedingungen zu fügen scheint. Aber es würde sich - wie Maxwell richtig bemerkt - dabei um "effort well spent" handeln, "particularly in a period when the search capabilities of our catalogs are increasingly under fire".
  5. Rötzer, F.: Computerspiele verbessern die Aufmerksamkeit : Nach einer Untersuchung von Kognitionswissenschaftlern schulen Shooter-Spiele manche Leistungen der visuellen Aufmerksamkeit (2003) 0.00
    0.0010250809 = product of:
      0.0030752425 = sum of:
        0.0030752425 = product of:
          0.006150485 = sum of:
            0.006150485 = weight(_text_:of in 1643) [ClassicSimilarity], result of:
              0.006150485 = score(doc=1643,freq=6.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.089775175 = fieldWeight in 1643, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1643)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Wer stundenlang und täglich vor dem Computer sitzt und spielt, trainiert bestimmte Fähigkeiten (und vernachlässigt andere, die verkümmern, was aber schon sehr viel schwieriger nachzuweisen wäre). Computerspiele erfordern, dass deren Benutzer sich beispielsweise aktiv visuell orientieren müssen - und dies schnell sowie mit anhaltender Konzentration. Zudem muss das Gesehene (oder Gehörte) schnell in Reaktionen umgesetzt werden, was senso-motorische Fähigkeiten, also beispielsweise die Koordination von Auge und Hand, fördert. Das aber war nicht Gegenstand der Studie. Nach den Experimenten der Kognitionswissenschaftler vom Center for Visual Sciences an der University of Rochester, New York, lernen die Computerspieler sogar nicht nur die Bewältigung von bestimmten Aufgaben, sondern können das Gelernte auf andere Aufgaben übertragen, wodurch sie allgemein die visuelle Aufmerksamkeit stärken. Untersucht wurden dabei, wie C. Shawn Green und Daphne Bavellier in [[External Link]] Nature schreiben, Personen zwischen 18 und 23 Jahren, die Action-Spiele wie Grand Theft Auto3, Half-Life, Counter-Strike, 007 oder Spider-Man während des letzten halben Jahres mindestens an vier Tagen in der Woche und mindestens eine Stunde am Tag gespielt haben. Darunter befanden sich allerdings keine Frauen! Die Wissenschaftler hatten keine Studentinnen mit der notwendigen Shooter-Spiele--Praxis finden können. Verglichen wurden die Leistungen in den Tests mit denen von Nichtspielern. Zur Kontrolle mussten Nichtspieler - darunter dann auch Frauen - an 10 aufeinander folgenden Tagen jeweils mindestens eine Stunde sich an Shooter-Spielen trainieren, wodurch sich tatsächlich die visuellen Aufmerksamkeitsleistungen steigerten. Das mag schließlich in der Tat bei manchen Aufgaben hilfreich sein, verbessert aber weder allgemein die Aufmerksamkeit noch andere kognitive Fähigkeiten, die nicht mit der visuellen Orientierung und Reaktion zu tun haben. Computerspieler, die Action-Spiele-Erfahrung haben, besitzen beispielsweise eine höhere Aufmerksamkeitskapazität, die sich weit weniger schnell erschöpft wie bei den Nichtspielern. So haben sie auch nach einer anstrengenden Bewältigung von Aufgaben noch die Fähigkeit, neben der Aufgabe Ablenkungen zu verarbeiten. Sie können sich beispielsweise auch längere Zahlenreihen, die den Versuchspersonen kurz auf dem Bildschirm gezeigt werden, merken. Zudem konnten die Spieler ihre Aufmerksamkeit weitaus besser auch in ungewohnten Situationen auf die Erfassung eines räumlichen Feldes erstrecken als Nichtspieler. Dabei mussten zuerst Objekte in einem dichten Feld identifiziert und dann schnell durch Umschalten der Fokussierung ein weiteres Umfeld erkundet werden. Der Druck, schnell auf mehrere visuelle Reize reagieren zu müssen, fördert, so die Wissenschaftler, die Fähigkeit, Reize über die Zeit hinweg zu verarbeiten und "Flaschenhals"-Situationen der Aufmerksamkeit zu vermeiden. Sie sind auch besser in der Lage, von einer Aufgabe zur nächsten zu springen. Wie die Wissenschaftler selbst feststellen, könnte man natürlich angesichts dieser Ergebnisse einwenden, dass die Fähigkeiten nicht mit der Beschäftigung mit Computerspielen entstehen, sondern dass Menschen, deren visuelle Aufmerksamkeit und senso-motorische Koordination besser ist, sich lieber mit dieser Art von Spielen beschäftigen, weil sie dort auch besser belohnt werden als die Ungeschickten. Aus diesem Grund hat man eine Gruppe von Nichtspielern gebeten, mindesten eine Stunde am Tag während zehn aufeinander folgenden Tagen, "Medal of Honor" zu spielen, während eine Kontrollgruppe "Tetris" bekam. Tetris verlangt ganz andere Leistungen wie ein Shooter-Spiel. Der Benutzer muss seine Aufmerksamkeit zu jeder Zeit auf jeweils ein Objekt richten, während die Aufmerksamkeit der Shooter-Spieler auf den ganzen Raum verteilt sein und ständig mit Unvorgesehenem rechnen muss, das aus irgendeiner Ecke auftaucht. Tetris-Spieler müssten also, wenn Aufmerksamkeit spezifisch von Spieleanforderungen trainiert wird, in den Tests zur visuellen Aufmerksamkeit anders abschneiden.
    Tatsächlich waren die "Medal of Honor"-Spieler nach der Trainingsphase bei den Aufgaben, bei denen auch die Langzeitspieler besser abschnitten, den "Tetris"-Spielern und den Nichtspielern überlegen: "Zehn Tage des Trainings mit einem Action-Spiel", so die Wissenschaftler, "reicht aus, um die Fähigkeiten der visuellen Aufmerksamkeit, ihrer räumlichen Verteilung und ihrer zeitlichen Auflösung zu verbessern." Unklar ist jedoch, wie diese Verbesserung zustande kommt. Vielleicht werden durch das Training bestimmte Formen des "Flaschenhalses", die zu einem "Stau" bei der Verarbeitung führen und daher die Leistung herabsetzen, verändert. Möglicherweise aber werden einfach Wahrnehmungs- und Aufmerksamkeitsprozesse beschleunigt, so dass geübte Spieler beispielsweise schneller Reize selektieren können. Vielleicht fördern Spiele zudem das Multitasking, so dass die Trainierten mehr "Aufmerksamkeitsfenster" gleichzeitig offen halten können als Menschen, die sich nicht an Shooter-Spielen üben. Für bestimmte Arbeiten, beispielsweise Autofahren, Fliegen, Überwachen von vielen Monitoren, Beobachtung von Radar, Kontrolle von Menschen und Gepäck an Grenzen, Fernsteuerung von Objekten - oder natürlich für Soldaten oder Terroristen, die sich schnell auf unbekanntem Territorium orientieren, Feinde erkennen und auf diese reagieren müssen, wären also wohl Shooter-Spiele eine gute Übung. Gleichwohl sagen visuelle Fähigkeiten freilich nichts über die Gewaltbereitschaft im wirklichen Leben aus.
  6. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.00
    0.0010250809 = product of:
      0.0030752425 = sum of:
        0.0030752425 = product of:
          0.006150485 = sum of:
            0.006150485 = weight(_text_:of in 331) [ClassicSimilarity], result of:
              0.006150485 = score(doc=331,freq=6.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.089775175 = fieldWeight in 331, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=331)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Pressemitteilung zum Artikel: Eduardo G. Altmann, Giampaolo Cristadoro and Mirko Degli Esposti: On the origin of long-range correlations in texts. In: Proceedings of the National Academy of Sciences, 2. Juli 2012. DOI: 10.1073/pnas.1117723109.
  7. Sietmann, R.: Suchmaschine für das akademische Internet (2004) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 5742) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=5742,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 5742, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5742)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In Zusammenarbeit mit der norwegischen Suchtechnologie-Firma Fast Search & Transfer hat die Universitätsbibliothek Bielefeld den Prototyp einer Suchmaschine für wissenschaftliche Bibliotheken entwickelt. Dieser demonstriert jetzt mit dem öffentlichen Zugriff auf ausgewählte digitalisierte Sammlungen der Projektteilnehmer die neuen Möglichkeiten des akademischen Retrieval. <http://www.heise.de/RealMedia/ads/adstream_lx.ads/www.heise.de/newsticker/meldungen/wissenschaft/954604605/Middle1/he-test-contentads/zaehler.html/38363566383735383364653062323630?_RM_EMPTY_> Während kommerzielle Suchmaschinen wie Google oder Yahoo sich nicht an akademischen Kriterien orientieren, beschränkt sich die Bielefeld Academic Search Engine (BASE ) auf die von wissenschaftlichen Bibliotheken erschlossenen und aufbereiteten Inhalte. Dazu gehören Hochschulschriften, Preprints, elektronische Zeitschriften und digitale Sammlungen, wie beispielsweise die "Internet Library of Early Journals" des Oxford University Library Service und die "Wissenschaftlichen Rezensionsorgane und Literaturzeitschriften des 18. und 19. Jahrhunderts aus dem deutschen Sprachraum" der UB Bielefeld. Wer etwa bei Google die Stichworte "Immanuel Kant" +Frieden eingibt, kommt zwar schnell an den Originaltext des Aufsatzes "Zum ewigen Frieden" heran, tut sich jedoch schwer, unter den bunt gemischten über 11.000 Treffern gezielt weiter zu recherchieren. Das BASE-Modell dagegen stellt dem Nutzer hierfür vielfältige Navigationshilfen und Metainformationen zur Verfügung. So erleichtert unter anderem die Verfeinerung der Suche auf das Erscheinungsjahr den Zugriff auf die zeitgenössische Diskussion der berühmten Schrift des Königsberger Philosophen. Derzeit ermöglicht der BASE-Prototyp das Retrieval in 15 verschiedenen Archivquellen. Darunter befinden sich die Zeitschriften der Aufklärung, die Elektronischen Dissertationen der Universität Bochum, das elektronische Journal Documenta Mathematica sowie die Mathematischen Volltexte des Springer-Verlags. Der geplante Ausbau soll sich auf eine verteilte Architektur stützen, in der von einzelnen Bibliotheken lokal erstellte Indexe gemeinsam zu einem virtuellen Master-Index beitragen. Dies würde dem Nutzer die nahtlose Navigation durch die verteilten Bestände erlauben."
  8. Böller, N.; Herget, J.; Hierl, S.: Knowledge-enhancing Helix : Herausbildung und Entwicklung von Informations- und Medienkompetenz durch systemgestütztes kollaboratives Arbeiten in der universitären Ausbildung. Eine Fallstudie (2007) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 707) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=707,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 707, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=707)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Informations- und Medienkompetenz gehören in der Informationsgesellschaft zu den wichtigsten Schlüsselqualifikationen. Ebenso gewinnen Aspekte wie Teamarbeit und Wissensaustausch im Berufsleben zunehmend an Bedeutung; kollaborative Arbeitsstile werden in der neuen informationell vernetzten Arbeitsumgebung dominant. Die berufsqualifizierende Ausbildung an Hochschulen ist somit mit immer neuen Herausforderungen konfrontiert: traditionelle Formen und Methoden der Hochschullehre wie das Schreiben wissenschaftlicher Arbeiten, Vorlesungen, Referate, Seminare oder Gruppenarbeiten genügen nicht mehr, um all diese Kompetenzen herauszubilden und den Herausforderungen des Berufslebens und der Informationsgesellschaft gerecht zu werden. Das Konzept "DIAMOND" (DIdactical Approach for Media cOmpeteNce Development) schafft einen Bezugrahmen für eine in das Curriculum integrierte umfassende und aktive Vermittlung von Methoden-, Sozial-, Fach-, Medien- und Informationskompetenz. Das über mehrere Jahre hinweg entwickelte und mehrfach erprobte Kursframework folgt einem aus sechs Bausteinen bestehendem Modell. Jeder Baustein (kontextuell, technisch, didaktisch, methodisch, pädagogisch, inhaltlich) besteht aus verschiedenen Aspekten, die in ihrer Gesamtheit die Herausbildung und Entwicklung von Schlüsselkompetenzen bei Studierenden ermöglichen und fördern. Der zugrundeliegende Ansatz des Blended Learning wird hierbei in mehrwertschaffender Form mit diversen neuen Medien und Systemunterstützungen (Topic Map basierte eLearningwebseite, Mediawiki, Lernplattform etc.) ergänzt, die in einem den Lehr- und Lernpozess unterstützenden Framework integriert sind. Ein Schwerpunkt liegt dabei auf einem kollaborativen Ansatz mit Hilfe einer WIKI-Software. Dieser umfassende didaktische Ansatz wird seit mehreren Jahren im ersten Semester des Studiums der Informationswissenschaft an der Hochschule für Technik und Wirtschaft Chur (HTW), University of Applied Science, im Grundlagenmodul erfolgreich eingesetzt und kontinuierlich weiterentwickelt.
  9. Oard, D.W.: Serving users in many languages : cross-language information retrieval for digital libraries (1997) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 1261) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=1261,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 1261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1261)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    We are rapidly constructing an extensive network infrastructure for moving information across national boundaries, but much remains to be done before linguistic barriers can be surmounted as effectively as geographic ones. Users seeking information from a digital library could benefit from the ability to query large collections once using a single language, even when more than one language is present in the collection. If the information they locate is not available in a language that they can read, some form of translation will be needed. At present, multilingual thesauri such as EUROVOC help to address this challenge by facilitating controlled vocabulary search using terms from several languages, and services such as INSPEC produce English abstracts for documents in other languages. On the other hand, support for free text searching across languages is not yet widely deployed, and fully automatic machine translation is presently neither sufficiently fast nor sufficiently accurate to adequately support interactive cross-language information seeking. An active and rapidly growing research community has coalesced around these and other related issues, applying techniques drawn from several fields - notably information retrieval and natural language processing - to provide access to large multilingual collections.
  10. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 3206) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=3206,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 3206, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3206)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
  11. RDA Toolkit (1) (2017) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 3996) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=3996,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 3996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3996)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Am 14. Februar 2017 ist das neue Release des RDA Toolkits<http://www.rdatoolkit.org/development/February2017release> erschienen. Das Release enthält im englischen Text alle Änderungen aus dem Fast-Track-Verfahren RSC/Sec/6<http://www.rda-rsc.org/sites/all/files/RSC-Sec-6.pdf>. Ebenso enthalten sind die Updates der LC-PCC PS (Library of Congress-Program for Cooperative Cataloging Policy Statements) und der MLA Best Practices. Neu aufgenommen wurden die Policy Statements der Library and Archives Canada in Kooperation mit der Bibliothèque et Archives nationales du Québec. Diese sind sowohl im Register als auch im Text über ein Icon (dunkel violett) mit den Buchstaben LAC/BAC-BAnQ ansteuerbar. Ab sofort ist es möglich sich auch die Policy Statements in einer zweisprachigen Ansicht anzeigen zu lassen, dazu wurde die Funktion Select Language und Dual View in der Symbolliste unter dem Reiter "Ressourcen" eingefügt. Im deutschen Text wurden ausschließlich Änderungen an den Anwendungsrichtlinien für den deutschsprachigen Raum (D-A-CH) eingearbeitet. Die dazugehörige Übersicht (Kurz- bzw. Langversion) finden Sie im RDA-Info-Wiki<https://wiki.dnb.de/x/1hLSBg>. Mitte April 2017 wird das nächste Release des RDA Toolkit erscheinen, eingearbeitet werden die verabschiedeten Proposals, die im November 2016 vom RDA Steering Committee (RSC) beschlossen wurden. Die Umsetzung der Änderungen in der deutschen Übersetzung aus den Fast-Track-Dokumenten RSC/Sec/4 und RSC/Sec/5 und RSC/Sec/6 sind für den August 2017 geplant.
  12. Rötzer, F.: ¬Das aufmerksame Gehirn hüpft alle 250 Millisekunden und konzentriert sich nicht kontinuierlich (2918) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 4412) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=4412,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 4412, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4412)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Neurowissenschaftler haben bei Menschen und Makaken herausgefunden, dass Aufmerksamkeit ein schneller rhythmischer Prozess zwischen Konzentration und Ablenkung ist. Das Bewusstsein simuliert die Welt und täuscht die Menschen über Brüche und Irritationen hinweg. Wie die Maschinerie der Illusion arbeitet, lässt sich an manchen Wahrnehmungstäuschungen erkennen, die den Bruch zwischen den sensorischen Daten und der Konstruktion der bewussten Wahrnehmung offenbaren. Beim Sehen gleitet das Auge beispielsweise nicht kontinuierlich über die Szene, sondern springt ruckartig und fixiert gelegentlich Ausschnitte, während immer wieder ein Lidschlag erfolgt. Das Gehirn blendet die Sprünge und Fixierungen ebenso wie die kurzen Dunkelheiten aus und erstellt eine kontinuierliche Szene. Wenn wir uns auf etwas in dieser Szene konzentrieren, findet ein ähnlicher Prozess statt. Auch die Aufmerksamkeit hüpft oder pulsiert, während wir der Überzeugung sind, eine Szene festzuhalten und fortwährend anzuschauen. Nach Untersuchungen an Menschen und Affen von Wissenschaftlern der Princeton University und der University of California-Berkeley springt die Aufmerksamkeit viermal in der Sekunde hin und her. "Wahrnehmung ist diskontinuierlich", so die Neuropsychologin und Hauptautorin Sabine Kastner, "sie geht rhythmisch durch kurze Zeitfenster." Auch die Aufmerksamkeit funktioniert nicht so, dass Neuronen über eine gewisse Zeit kontinuierlich "feuern".
  13. Schönfelder, N.: Mittelbedarf für Open Access an ausgewählten deutschen Universitäten und Forschungseinrichtungen : Transformationsrechnung (2019) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 5427) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=5427,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 5427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5427)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Für fünf deutsche Universitäten sowie ein Forschungsinstitut werden auf Basis der Publikationsdaten des Web of Science Abschätzungen zu den Gesamtausgaben für APCs erstellt und mit den derzeitigen Subskriptionsausgaben verglichen. Der Bericht zeigt, dass die Kostenübernahme auf Basis der projizierten Ausgaben für Publikationen aus nicht-Drittmittel-geförderter Forschung für alle hier betrachteten Einrichtungen ohne Probleme aus den derzeitigen bibliothekarischen Erwerbungsetats für Zeitschriften bestritten werden könnte. Dies setzt jedoch voraus, dass Drittmittelgeber neben der üblichen Forschungsförderung auch für die APCs der aus diesen Projekten resultierenden Publikationen aufkommen. Trifft dies nicht zu und die wissenschaftliche Einrichtung muss für sämtliche Publikationen die APCs selbst tragen, so hängen die budgetären Auswirkungen wesentlich von der zukünftigen Entwicklung der Artikelbearbeitungsgebühren ab.
  14. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" I : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 338) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=338,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=338)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  15. Garrel, J. von; Mayer, J.; Mühlfeld, M.: Künstliche Intelligenz im Studium : eine quantitative Befragung von Studierenden zur Nutzung von ChatGPT & Co. (2023) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 1006) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=1006,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 1006, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1006)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Imprint
    Darmstadt : University of Applied Sciences | Fachbereich Gesellschaftswissenschaften
  16. Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur (2005) 0.00
    8.542341E-4 = product of:
      0.0025627022 = sum of:
        0.0025627022 = product of:
          0.0051254043 = sum of:
            0.0051254043 = weight(_text_:of in 3245) [ClassicSimilarity], result of:
              0.0051254043 = score(doc=3245,freq=6.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.07481265 = fieldWeight in 3245, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3245)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Artikel als Reaktion auf das Angebot von Google: http://scholar.google.com/. Begleitkommentar des Verfassers: Der "Google-Scholar" (http://scholar.google.com/) ist durchaus eine bemerkenswerte Entwicklung von Google, welche die Internet-Suchtechnik voranbringt - zumindest vordergruendig. Der Satz auf der Scholar Startseite "Stand on the shoulders of giants" drueckt es treffend aus: derart gigantische Ressourcen hat eben im Suchmaschinenbereich sonst niemand. Und genau DAS ist der Punkt: das Quasi-Monopol von Google (spaeter u.U. Microsoft) wird dadurch NOCH staerker werden. Ich halte diese Entwicklung fuer bedrohlich. An dieser Stelle ist kein Vorwurf an Google zu richten: dort verhaelt man sich nur so, wie es der Markt verlangt. Der Vorwurf ist dorthin zu richten, wo diese Entwicklung gesehen und ignoriert wird. Ich erlebe es immer wieder, auch in "hochrangigen" Gespraechen, dass als "Argument" gegen alternative Enticklungen vorgebracht wird "was wollt ihr da eigentlich - es gibt doch Google und die sind doch gut". Solche Kurzsichtigkeit ist kaum uebertreffbar. Von der Zeitschrift "Technology Review" des Heise-Verlages (das deutsche Pendant zum MIT-Review) wurde ich gebeten, hierzu einen Artikel zu schreiben. Sie finden diesen Artikel bei Interesse im WWW unter http://suma-ev.de/tech-rev1.html Daraus hat sich eine Diskussion ueber unabhaengige Suchmaschinen ergeben, die ich hier kurz skizzieren moechte: ----------------------------------------------------------------------- Unabhaengige Suchmaschinen sind in einem weiten Spektrum von Moeglichkeiten denkbar: 1. von voellig freien, nicht strukturierten, losen Zusammenschluessen, z.B. auf Peer-to-Peer Basis (a la YACY: http://suma-lab.de/) 2. bis hin zu staatlich gewollter Unabhaengigkeit durch gesetzliche Regelungen (aehnlich der Intention beim oeffentlich-rechtlichen Rundfunk und Fernsehen); Stichwort: oeffentlich-rechtliche Suchmaschine 3. Dazwischen sind Optionen denkbar, die beides kombinieren: eine Vielzahl von Betreibern kleinerer Suchmaschinen (Mini-Sucher), die sich zu Verbuenden organisieren, in denen Organisationen des oeffentlich-rechtlichen Raumes, wie z.B. Bibliotheken und Universitaeten als klassische Wissensvermittler, eine tragende Rolle spielen. 4. Und moeglicherweise sehen SIE noch ganz andere Moeglichkeiten ...?
    Content
    Text des Artikels: "Wenn der Rohstoff des 21. Jahrhunderts wirklich Information ist, dann unterscheidet er sich grundlegend von seinen Vorgängern Eisenerz und Erdöl: Er verbraucht sich nicht, kann endlos wiederverwertet werden, ist einfach um die ganze Welt transportierbar, und kann sich sogar durch Neuzusammensetzung vermehren. Letztere Eigenschaft, so schön sie zunächst scheint, wird allmählich zur Plage. Die Menge der weltweit vorliegenden Information wächst seit Jahrhunderten stetig. Laut einem Bericht der University of California in Berkeley schafft die Menschheit derzeit ein bis zwei Exabyte (Milliarden Gigabyte) an Information pro Jahr. Dargestellt als Text entspricht das einem Stapel von rund einer Billion dicker Bücher - dessen Höhe etwa die 130-fachen Entfernung Erde-Mond erreichen würde. Die große Herausforderung ist, aus solch gigantischen Informationsmengen das subjektiv Wesentliche - also das Wissen - herauszusuchen. Die Wissensextraktion wird im digitalen Zeitalter zunehmend von Internet-Suchmaschinen übernommen. Sie verarbeiten den Rohstoff Information zu Wissen, kontrollieren und verteilen ihn. Es kann keinem Nutzer ganz geheuer sein, dass diese Schlüsselfunktion der Informationsgesellschaft in die Hände weniger Konzerne gerät: Google hat mit einem Marktanteil von mehr als 80 Prozent in Deutschland ein De-facto-Monopol erreicht, das nun Microsoft mit seiner "MSN Search" angreifen will. Aber diese Alternative weckt schwerlich mehr Vertrauen.
    Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
  17. Talbot, D.: Durchblick im Infodschungel (2009) 0.00
    8.3697494E-4 = product of:
      0.0025109248 = sum of:
        0.0025109248 = product of:
          0.0050218496 = sum of:
            0.0050218496 = weight(_text_:of in 2865) [ClassicSimilarity], result of:
              0.0050218496 = score(doc=2865,freq=4.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.07330112 = fieldWeight in 2865, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2865)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.
    Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
  18. bbu/c't: Ask Jeeves mit verbesserten Suchfunktionen (2005) 0.00
    7.8910764E-4 = product of:
      0.0023673228 = sum of:
        0.0023673228 = product of:
          0.0047346456 = sum of:
            0.0047346456 = weight(_text_:of in 3453) [ClassicSimilarity], result of:
              0.0047346456 = score(doc=3453,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.06910896 = fieldWeight in 3453, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3453)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Mit nicht völlig neuen, aber überarbeiteten Suchfunktionen erweitert das zum Firmenimperium des US-Medienzaren Barry Diller gehörende Unternehmen Ask Jeeves das Leistungsspektrum seiner Suchmaschine. Mit der Ergebnisverfeinerungsfunktion Focus erhält der Suchende auf der rechten oberen Bildschirmseite eine Liste, die das Thema seiner Suche thematisch aufgliedern soll. Eine zweite Neuerung verspricht präzise Antworten auf als Fragen formulierte Sucheinträge. So ergibt der Eintrag "Lady Diana" zum Beispiel eine Liste mit den Items Princess Di, Princess Dianas Life, Princess Diana's Wedding. Interessant dabei ist, dass diese Liste nicht einfach aus einem monolithischen Block von Schlüsselwörtern besteht, sondern in drei Kategorien aufgeteilt ist: "Narrow Your Search", "Expand Your Search" und "Related Names". Waren die eben genannten Beispiele aus der ersten Kategorie, finden sich unter Expand Your Search Einträge wie Royal Family, Princess Di Ring, Princess Di Prince Charles History oder Prince William Harry, allerdings auch Who Is Louis De Funes? "Related Names" verweist auf Einträge wie Diana Spencer, Prince Harry oder Imran Khan. Die Suchfunktion soll also die thematische Verfeinerung oder Ausweitung gleichermaßen wie die Fortsetzung der Suche mit einem verwandten Thema ermöglichen. Auf die Frage "who invented the telephone" erhält der Suchende als ersten Eintrag die Antwort "The telephone was invented by Alexander Graham Bell" mit dem roten Vermerk "Web Answer'. Bemerkenswert ist hier, dass auf eine Frage nicht nur eine passende Webseite mit der Antwort angezeigt wird, sondern die ausformulierte Antwort direkt aus der vorgeschlagenen Webseite zitiert wird. Die Frage "who is the mother of Albert Einstein" gibt immerhin einen Eintrag unter "Narrow Your Search" mit "Albert Einstein Family tree". Ask Jeeves wird wohl noch eine weitere Neuerung bevorstehen: Auf einer Pressekonferenz in San Francisco bemerkte Chief Executive Barry Diller, dass das Unternehmen über eine Namensänderung von Ask Jeeves nachdenke. Wahrscheinlich werde auf eines der beiden Worte verzichtet werden. Mit dem Sucheintrag "How will Ask Jeeves be called in the future" erhält man bislang jedoch noch keine "Web Answer". (26.05.2005 15:30)
  19. Cazan, C.: Medizinische Ontologien : das Ende des MeSH (2006) 0.00
    7.8910764E-4 = product of:
      0.0023673228 = sum of:
        0.0023673228 = product of:
          0.0047346456 = sum of:
            0.0047346456 = weight(_text_:of in 132) [ClassicSimilarity], result of:
              0.0047346456 = score(doc=132,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.06910896 = fieldWeight in 132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.03125 = fieldNorm(doc=132)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Dieser Aufsatz ist kein Abgesang auf MeSH (= Medical Subject Headings in Medline/PubMed), wie man/frau vielleicht vermuten könnte. Vielmehr wird - ohne informatiklastiges Fachchinesisch - an Hand des von der National Library of Medicine entwickelten Unified Medical Language System erklärt, worin die Anforderungen an Ontologien bestehen, die im Zusammenhang mit dem Semantic Web allerorten eingefordert und herbeigewünscht werden. Eine Lektüre für Einsteigerinnen, die zum Vertiefen der gewonnenen Begriffssicherheit an Hand der weiterführenden Literaturhinweise anregt. Da das UMLS hier vor allem als Beispiel verwendet wird, werden auch Bibliothekarlnnen, Dokumentarlnnen und Informationsspezialistinnen anderer Fachbereiche den Aufsatz mit Gewinn lesen - und erfahren, dass unser Fachwissen aus der Sacherschließung und der Verwendung und Mitgestaltung von Normdateien und Thesauri bei der Entwicklung von Ontologien gefragt ist! (Eveline Pipp, Universitätsbibliothek Innsbruck). - Die elektronische Version dieses Artikels ist verfügbar unter: http://www.egms.de/en/journals/mbi/2006-6/mbi000049.shtml.
  20. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.00
    7.8910764E-4 = product of:
      0.0023673228 = sum of:
        0.0023673228 = product of:
          0.0047346456 = sum of:
            0.0047346456 = weight(_text_:of in 3081) [ClassicSimilarity], result of:
              0.0047346456 = score(doc=3081,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.06910896 = fieldWeight in 3081, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3081)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    

Languages

Types

  • a 541
  • r 24
  • p 22
  • s 20
  • i 15
  • n 15
  • x 15
  • m 10
  • b 8
  • More… Less…

Themes