Literatur zur Informationserschließung
Diese Datenbank enthält über 40.000 Dokumente zu Themen aus den Bereichen Formalerschließung – Inhaltserschließung – Information Retrieval.
© 2015 W. Gödert, TH Köln, Institut für Informationswissenschaft
/
Powered by litecat, BIS Oldenburg
(Stand: 04. Juni 2021)
Suche
Suchergebnisse
Treffer 1–16 von 16
sortiert nach:
-
1Schmidt, M.: ¬An analysis of the validity of retraction annotation in pubmed and the web of science.
In: Journal of the Association for Information Science and Technology. 69(2018) no.2, S.318-328.
Abstract: Research on scientific misconduct relies increasingly on retractions of articles. An interdisciplinary line of research has been established that empirically assesses the phenomenon of scientific misconduct using information on retractions, and thus aims to shed light on aspects of misconduct that previously were hidden. However, comparability and interpretability of studies are to a certain extent impeded by an absence of standards in corpus delineation and by the fact that the validity of this empirical data basis has never been systematically scrutinized. This article assesses the conceptual and empirical delineation of retractions against related publication types through a comparative analysis of the coverage and consistency of retraction annotation in the databases PubMed and the Web of Science (WoS), which are both commonly used for empicial studies on retractions. The searching and linking approaches of the WoS were subsequently evaluated. The results indicate that a considerable number of PubMed retracted publications and retractions are not labeled as such in the WoS or are indistinguishable from corrections, which is highly relevant for corpus and sample strategies in the WoS.
Inhalt: Vgl.: http://onlinelibrary.wiley.com/doi/10.1002/asi.23913/full.
Themenfeld: Informetrie
Wissenschaftsfach: Medizin
Objekt: PubMed ; Web of Science
-
2Olensky, M. ; Schmidt, M. ; Eck, N.J. van: Evaluation of the citation matching algorithms of CWTS and iFQ in comparison to the Web of science.
In: Journal of the Association for Information Science and Technology. 67(2016) no.10, S.2550-2564.
Abstract: The results of bibliometric studies provided by bibliometric research groups, for example, the Centre for Science and Technology Studies (CWTS) and the Institute for Research Information and Quality Assurance (iFQ), are often used in the process of research assessment. Their databases use Web of Science (WoS) citation data, which they match according to their own matching algorithms-in the case of CWTS for standard usage in their studies and in the case of iFQ on an experimental basis. Because the problem of nonmatched citations in the WoS persists due to inaccuracies in the references or inaccuracies introduced in the data extraction process, it is important to ascertain how well these inaccuracies are rectified in these citation matching algorithms. This article evaluates the algorithms of CWTS and iFQ in comparison to the WoS in a quantitative and a qualitative analysis. The analysis builds upon the method and the manually verified corpus of a previous study. The algorithm of CWTS performs best, closely followed by that of iFQ. The WoS algorithm still performs quite well (F1 score: 96.41%), but shows deficits in matching references containing inaccuracies. An additional problem is posed by incorrectly provided cited reference information in source articles by the WoS.
Inhalt: Vgl.: http://onlinelibrary.wiley.com/doi/10.1002/asi.23590/full.
Themenfeld: Informetrie
Objekt: Web of science
-
3Gödert, W. ; Hubrich, J. ; Nagelschmidt, M.: Semantic knowledge representation for information retrieval.
Berlin : De Gruyter Saur, 2014. XIV, 294 S.
ISBN 978-3-11-032971-1
Abstract: This book covers the basics of semantic web technologies and indexing languages, and describes their contribution to improve languages as a tool for subject queries and knowledge exploration. The book is relevant to information scientists, knowledge workers and indexers. It provides a suitable combination of theoretical foundations and practical applications.
Inhalt: Introduction: envisioning semantic information spacesIndexing and knowledge organization -- Semantic technologies for knowledge representation -- Information retrieval and knowledge exploration -- Approaches to handle heterogeneity -- Problems with establishing semantic interoperability -- Formalization in indexing languages -- Typification of semantic relations -- Inferences in retrieval processes -- Semantic interoperability and inferences -- Remaining research questions.
Themenfeld: Wissensrepräsentation
LCSH: Semantic Web ; Information retrieval ; Knowledge representation (Information theory) ; Information organization ; Indexing ; World Wide Web / Subject access
RSWK: Indexierung ; Inhaltserschließung ; Wissensorganisation ; Semantic Web ; Information Retrieval ; Wissensrepräsentation
BK: 06.74 - Informationssysteme
DDC: 025.0427
GHBS: BCA (FH K)
LCC: ZA4240
RVK: AN 95000
-
4Nagelschmidt, M.: Integration und Anwendung von "Semantic Web"-Technologien im betrieblichen Wissensmanagement.
Hagen : FernUniversität / Fakultät für Wirtschaftswissenschaft, 2012. VII, 59 S.
Abstract: Das Wissensmanagement ist ein Themenkomplex mit zahlreichen fachlichen Bezügen, insbesondere zur Wirtschaftsinformatik und der Management-, Personal- und Organisationslehre als Teilbereiche der Betriebswirtschaftslehre. In einem weiter gefassten Verständnis bestehen aber auch Bezüge zur Organisationspsychologie, zur Informatik und zur Informationswissenschaft. Von den Entwicklungen in diesen Bezugsdisziplinen können deshalb auch Impulse für die Konzepte, Methodiken und Technologien des Wissensmanagements ausgehen. Die aus der Informatik stammende Idee, das World Wide Web (WWW) zu einem semantischen Netz auszubauen, kann als eine solche impulsgebende Entwicklung gesehen werden. Im Verlauf der vergangenen Dekade hat diese Idee einen hinreichenden Reifegrad erreicht, so dass eine potenzielle Relevanz auch für das Wissensmanagement unterstellt werden darf. Im Rahmen dieser Arbeit soll anhand eines konkreten, konzeptionellen Ansatzes demonstriert werden, wie dieser technologische Impuls für das Wissensmanagement nutzenbringend kanalisiert werden kann. Ein derartiges Erkenntnisinteresse erfordert zunächst die Erarbeitung eines operationalen Verständnisses von Wissensmanagement, auf dem die weiteren Betrachtungen aufbauen können. Es werden außerdem die Architektur und die Funktionsweise eines "Semantic Web" sowie XML und die Ontologiesprachen RDF/RDFS und OWL als maßgebliche Werkzeuge für eine ontologiebasierte Wissensrepräsentation eingeführt. Anschließend wird zur Integration und Anwendung dieser semantischen Technologien in das Wissensmanagement ein Ansatz vorgestellt, der eine weitgehend automatisierte Wissensmodellierung und daran anschließende, semantische Informationserschließung der betrieblichen Datenbasis beschreibt. Zur Veranschaulichung wird dazu auf eine fiktive Beispielwelt aus der Fertigungsindustrie zurückgegriffen. Schließlich soll der Nutzen dieser Vorgehensweise durch Anwendungsszenarien des Information Retrieval (IR) im Kontext von Geschäftsprozessen illustriert werden.
Inhalt: Masterarbeit im weiterbildenden Masterstudiengang "Hagener Masterstudium Management" zur Erlangung des akademischen Grades "Master of Science"
Anwendungsfeld: Informationswirtschaft
-
5Nagelschmidt, M. ; Meyer, A. ; Ehlen, D.: Mit Wiki-Software zum semantischen Web : Modellierungsansätze, Beispiele und Perspektiven.
In: Information - Wissenschaft und Praxis. 62(2011) H.6/7, S.301-313.
Abstract: Es wird ein Überblick über die Ergebnisse dreier Bachelorarbeiten gegeben, die 2010 am Institut für Informationswissenschaft der Fachhochschule Köln entstanden sind. Untersucht wird das Potenzial von Wiki-Software und insbesondere der Wikipedia, um einen Beitrag zur Fortentwicklung eines Semantic Web zu leisten. Die Arbeit von Alexander Meyer befasst sich mit der Struktur der deutschsprachigen Wikipedia und den Möglichkeiten, daraus ein differenziertes Inventar semantischer Relationen anhand der Lemmata- und Kategoriennamen abzuleiten. Die Arbeiten von Astrid Brumm und Dirk Ehlen beschreiben Modellierungsansätze für zwei unterschiedliche Domänen anhand des Semantic MediaWiki.
Themenfeld: Semantic Web
Objekt: Semantic MediaWiki
-
6Gödert, W. ; Lepsky, K. ; Nagelschmidt, M.: Informationserschließung und Automatisches Indexieren : ein Lehr- und Arbeitsbuch.
Berlin : Springer, 2011. XIV, 434 S.
ISBN 978-3-642-23512-2
Abstract: Das Buch vermittelt Kenntnisse über die Modellierung dokumentbezogener Metadaten durch praktische Aufgabenstellungen, begleitende theoretische Erläuterungen sowie ergänzende Übungen. Als Beispiele dienen Bilddokumente und bibliografische Daten. Es wird vermittelt, wie entsprechende Datenbanken aufgebaut und mit geeigneten Suchumgebungen ausgestattet werden. Es wird dargestellt und praktisch geübt, wie Kenntnisse über die Struktur der Daten zum Import von Fremddaten genutzt werden können. Zielvorstellung ist der Aufbau von Datenbanken zur formalen und inhaltlichen Erschließung und die Gestaltung von Retrievalumgebungen, für bibliografische Daten auch die Erstellung von Bibliografien. Als Methoden zur inhaltlichen Erschließung werden besonders die semantische Strukturierung von Themenfeldern am Beispiel des aspektorientierten Thesaurus-Konzepts und das Automatische Indexieren bibliografischer Daten behandelt. Abgerundet wird die Darstellung durch die Diskussion von Bezügen zum Aufbau relationaler Datenbanken für bibliografische Daten sowie Hintergründe der Zeichencodierung und Ordnungsfragen.
Inhalt: Vgl. auch: http://www.springerlink.com/content/978-3-642-23512-2/#section=967982&page=1.
Anmerkung: Rez. in: ABI Technik 32(2012) H.2, S.113-114 (F. Förster)
Themenfeld: Grundlagen u. Einführungen: Allgemeine Literatur
LCSH: Computer science ; Database management ; Information storage and retrieval systems ; Computational linguistics ; Library science
RSWK: Bilddatenbank ; Literaturdatenbank ; Relationale Datenbank ; Datenorganisation ; Bibliografische Beschreibung ; Inhaltserschließung ; Automatische Indexierung ; Information Retrieval
BK: 06.70 (Katalogisierung / Bestandserschließung) ; 06.74 (Informationssysteme)
DDC: 025.30285 / ddc22ger ; 025.04 / ddc22ger
GHBS: BCA (FHK) ; AVJ (W)
LCC: Z695.92 ; QA76.9
RVK: AN 73400 ; AN 95300 ; ST 265 ; ST 270 ; AN 95100
-
7Nagelschmidt, M.: Literaturverwaltungsprogramme : das funktionale Minimum.
In: ABI-Technik. 30(2010) H.2, S.94-99.
Abstract: Mit der zunehmenden Verfügbarkeit bibliografischer Daten wird auch die Verwendung von Literaturverwaltungsprogrammen immer interessanter. Viele Bibliotheken bieten in ihren Katalogen mittlerweile entsprechende Schnittstellen an, die einen direkten Import der Bestandsdaten der Bibliothek in die Literaturverwaltung des Nutzers ermöglichen. Dabei muss jedoch streng differenziert werden zwischen solchen Programmen zum Aufbau individueller Literatursammlungen und solchen, zum Aufbau und zur Pflege institutionell betriebener Datenbanken. Im Beitrag werden die Leistungsmerkmale einer idealtypischen Literaturverwaltung im Sinne eines Produktivitätswerkzeuges beschrieben und anschließend von den Merkmalen professioneller bibliografischer Software abgegrenzt.
Themenfeld: Bibliographische Software
-
8Hentschel, A. ; Schmidt, M.: Google: erste Krise.
In: Chip. 2008, H.5, S.16-17.
(Aktuell)
Abstract: Die Nummer eins der Suchmaschinen strauchelt. Die Erfolgsstory von Web 2.0 und Social Networks bereitet Google Probleme. Der Gigant sieht seine Nutzer nicht mehr
Inhalt: "Am 7. September feiert die Google-Seite ihren zehnten Geburtstag. Die Bilanz dieser Dekade ist durchaus überwältigend. Gerade bescheinigte das Marktforschungs-Unternehmen comScore Google einen Anteil von 61,6 Prozent am weltweiten Suchmaschinen-Markt. Der Gigant aus Mountain View machte letztes Jahr 16,5 Milliarden US-Dollar Umsatz und erwirtschaftete 4,2 Milliarden US-Dollar Gewinn - gegenüber 2006 ein Plus von bemerkenswerten 30 Prozent. Viele Gründe zum Feiern. Eigentlich. Doch die Stimmung beim weltgrößten Suchmaschinen-Betreiber ist getrübt. Die gleichen Marktforscher sagen Google nämlich ein Ende der glorreichen Zeiten voraus. Die Gründe: Die User verstecken sich vor Google, klicken seltener auf Werbebanner und achten stärker denn je auf ihre Privatsphäre im Internet. In den USA schrumpfte das Anzeigengeschäft allein von Dezember 2007 bis Januar 2008 um sieben Prozent. Der Aktienkurs der Suchmaschine brach ob dieser Zurückhaltung ein, seit letztem November verlor Google 40 Prozent seines Börsenwertes - immerhin 80 Milliarden US-Dollar. Das rückläufige Geschäft verdeutlicht ein gravierendes Problem. Es wird für Google immer schwerer, Werbung dort einzublenden, wo die Webnutzer sind. Die Platzierung funktioniert vereinfacht so: Um seinen Webseitenindex aktuell zu halten, schickt Google Crawler durch das Web. Sie erfassen für das Indizierungs-Programm Google-bot die Inhalte der Webseiten - anhand häufig auftauchender Begriffe sowie von Content- und Title-Tags. So weiß Google, auf welchen Seiten welche Inhalte stehen und kann passende Werbung schalten. In Zeiten dröger HTML-Seiten war das mehr als ausreichend. Doch das Web hat sich schneller geändert als Google seinen Googlebot. Der nämlich kann nicht alle Seitenformate erfassen. Die Inhalte von Flash-Dateien und dynamischen Webseiten etwa bleiben außen vor, zielgenaue Werbung lässt sich hier nicht schalten. Dummerweise boomen ausgerechnet diese Formate im populären "Web 2.0". Eigentlich ein rein technisches Problem, für das die Suchmaschine noch keine Lösung hat. ; Doch auch mit den Menschen im Internet hadert Google. Schon vergangenes Jahr bettelte Google-Chef Eric Schmidt bei den Nutzern um die Preisgabe persönlicher Informationen: "Wir können nicht einmal die einfachsten Fragen beantworten, weil wir zu wenig über euch wissen" Dass es Probleme geben könnte, wusste Google freilich schon länger. Wie verzweifelt die Führungsriege tatsächlich ist, zeigen die 900 Millionen Dollar, mit denen sich die Suchmaschine im Sommer 2006 in die Web-Community MySpace einkaufte. Der Deal klingt eigentlich absurd - schließlich zahlte der Branchen-Primus das Geld, damit er seinen Such-Service anbieten kann. Natürlich ist das nur die halbe Geschichte. ,Wir halten es für wichtig, dass wir Google dorthin bringen, wo die User sind, und die wenden sich immer stärker Seiten mit selbst geschaffenen Inhalten zu", sagte seinerzeit Eric Schmidt. Doch die User verstecken sich, schalten ihre Profile auf den Status "Privat" und sind damit weiterhin unsichtbar und wertlos für Google. Und so geht es der Suchmaschine in nahezu jedem Social Network: Weltweit etwa 300 Millionen Nutzer solcher Netzwerke bekommt Google nicht zu Gesicht. Xing, facebook oder studiVZ sind beliebt bei den Surfern - und für Google unerreichbar. Doch ausgerechnet im Sammeln der dort preisgegebenen Daten sieht Google mittlerweile seine Existenzgrundlage. Der scheinbare Ausweg aus dem Dilemma heißt OpenSocial. Das ist eine Sammlung standardisierter Programmierschnittstellen (APIs) für webbasierte soziale Netzwerke. Mithilfe solcher APIs lassen sich Widgets programmieren - oder aber auch die in Datenbanken versteckten Nutzerprofile auslesen. Joe Kraus, bei Google verantwortlich für OpenSocial, nannte es einmal ganz unverhohlen "eine fantastische Monetarisierungsplattform". Auf Deutsch: ein Goldesel. Spürhund: Auf der verzweifelten Suche nach den Userdaten Fraglich ist allerdings, ob die Nutzer Google an ihre Daten lassen. Drei Viertel aller Surfer rebellieren ja bereits, wenn Google nur über die an sich relativ nutzlose IP-Adresse auf frühere Suchen der Personen schließt, fand der Autor Gerald Reischl für sein gerade erschienenes Buch "Die Google-Falle" heraus. Wie solch ein Protest praktisch aussieht, erfuhren die Betreiber des Studenten-Netzwerkes studiVZ Ende letzten Jahres: Reichlich unbedarft verkündeten sie ihren Nutzern, deren persönliche Daten zukünftig auch für Werbezwecke einzusetzen. Die Community machte das, was man eigentlich auch von ihr erwarten durfte: Sie organisierte sich gegen den befürchteten Ausverkauf und zwang studiVZ schließlich, den fraglichen Passus aus den Geschäftsbedingungen zu streichen. Selbst die Netzwerke, die OpenSocial unterstützen, halten nichts davon, dass sich Google über die Nutzerprofile hermacht, um seine Werbeeinnahmen zu steigern. Zumindest nicht die deutschen: "Es ist nicht in unserem Sinne, dass es bei der Nutzung von auf OpenSocial basierten Widgets zu einem Datenaustausch mit Google oder Dritten kommt", sagt Daniela Hinrichs, Pressesprecherin des Business-Netzwerkes Xing. "Das wäre aufgrund der strengenDatenschutzbestimmungen und unserer AGB überhaupt nicht zulässig - und es ist auch nicht gewollt.""
Themenfeld: Suchmaschinen
Objekt: Wikia ; Google ; Mahalo ; Facebook
-
9Firley, S. ; Klasing, M. ; Lülsdorf, L. ; Mikosch, M. ; Nagelschmidt, M.: Neue Plattform für Indexierung und Retrieval : Studenten erstellen die Webseite »iXtrieve«.
In: BuB. 60(2008) H.5, S.367.
(Foyer: Hochschule)
Abstract: An der Fachhochschule Köln haben sich fünf Studierende des Diplom-Studiengangs Bibliothekswesen mit dem Aufbau einer Webseite für die Themenkomplexe Indexierung und Information Retrieval* befasst. Ein »Eingangsportal für alle damit verbundenen Fragestellungen« war in der Aufgabenstellung vorgesehen, die Rahmenbedingungen waren vorgegeben: Nutzung des unter Open-Source-Lizenz stehenden Content-Management-Systems Joomla, eigenverantwortliche Projektorganisation und Gruppenarbeit.
Inhalt: "Knapp ein Jahr später findet der Interessierte unter www. indexierung-retrieval.de ein ausbaufähiges Fundament zu diesen Fragestellungen. Das Hauptziel waren eigene Inhalte, von Stud ierenden des Fachs selbstständig erarbeitet und verfasst. Mit voranschreitendem Projektverlauf und wechselnden verantwortlichen Projektgruppen soll damit mittelfristig ein repräsentatives Spektrum an Beiträgen aus dem Umfeld von Indexierung und Retrieval zur Verfügung stehen. Eine einführende Lektüre in die Welt der semantischen Netze, des automatischen Abstracting und der automatischen Indexierung ist bereits möglich. Die umgesetzte Darstellungsform solcher mitunter interdisziplinärenArtikel istanwendungsorientiert und mit deutlichem Bezug zum Informations- und Dokumentationsbereich, speziell zum Bibliothekswesen. Ein tieferer Einstieg in die Themen ist möglich, denn strukturierte und kommentierte Linklisten weisen den Weg zu Hochschulen, Forschungseinrichtungen, Firmen und anderen relevanten Institutionen. Links zu stillgelegten Webseiten oder fehlerhafte Verknüpfungen werden dabei vom Content-Management-System automatisch erkannt und an den Administrator gemeldet. Neben Webressourcen sind auch Nachweise der einschlägigen Fachliteratur berücksichtigt, zum Teil mit einem Direktlink zum elektronischen Volltext. Das Portal bietet außer der thematischen Gliederung auch eine umfangreiche, annotierte Linkliste, die über zahlreiche Such- und Navigationsmöglichkeiten verfügt. Diese ist am Institut für Informationswissenschaft an der Fachhochschule Köln über einen längeren Zeitraum aufgebaut und nun im Rahmen dieses Projekts in iXtrieve eingebunden und erweitert worden. Weiterhin eingebaut wurde die Rubrik »Personen und Institutionen«, welche die Funktion eines Kompetenznetzwerks übernimmt. ; Eine exponierte Position haben die Fachzeitschriften bekommen. Von der Linkliste losgelöst sind die bibliografischen Daten von derzeit 29 internationalen Fachzeitschriften separat zusammengeführt, gegebenenfalls mit einem Link zur Online-Ausgabe versehen, und im Volltext suchbar. In der Nähe der Fachzeitschriften findet der Besucher einen Link auf die Datenbank der Literatur zur Inhaltserschließung - ein Angebot, das ebenfalls am Institut für Informationswissenschaft entstanden ist und durch Prof. Winfried Gödert betreut wird. Diese umfangreiche Sammlung weist vor allem unselbstständig erschienene Literatur nach und ist durch eine eigene Retrievaloberfläche zugänglich. Umfangreiches Glossar Zu den ambitionierten Vorhaben gehört das Glossar, das derzeit rund hundert Einträge umfasst, von »A« wie »Abstract« bis »W« wie »Warenklassifikation«. Diese Vokabularsammlung ist in ihrem Wachstum an die thematischen Textbeiträge gekoppelt und soll neben der Erläuterung einzelner grundlegender Begriffe vor allem einen Überblick über die in iXtrieve verwendete Terminologie verschaffen. Das Projekt wurde im Wesentlichen dezentral durchgeführt und durch regelmäßig stattfindende Projektsitzungen abgerundet. Bei gleichen Rechten und gleichen Pflichten für alle Teilnehmer herrschte ein hoher Kommunikationsbedarf, sodass ein virtueller Treffpunkt nötig war. Die frei verfügbare Software »eGroupWare« wurde dazu auf einem Institutsserver eingerichtet und ermöglichte nicht nur einen reibungslosen Austausch, sondern auch das Hochladen der Sitzungsprotokolle und schriftlich fixierter Ideen einzelner Teilnehmer. iXtrieve wird in Kürze durch eine nachfolgende Projektgruppe weiter ausgebaut werden. Die Projektdauer ist mit zwei Semestern bemessen, während derer die Projektteilnehmer den Umgang mit Joomla erlernen, ihre Arbeitsabläufe planen und organisieren und anschließend iXtrieve kontinuierlich zu einer Kompetenzplattform für Indexierung und Retrieval weiterentwickeln."
Anmerkung: Weitere Informationen: www.indexierung-retrieval.de/
Objekt: iXtrieve
-
10Hentschel, A. ; Schmidt, M. ; Mattos, N.: "Google ist nie fertig!" : [Interview].
In: Chip. 2008, H.7, S.44.
(Aktuell: Wikipedia)
Abstract: Nelson Mattos, Entwicklungschef von Google Europa, spricht im CHIP-INTERVIEW über Erfolg, darüber, wie die zukünftige Websuche aussieht - und was Badewannen im Büro verloren haben
Inhalt: "Herr Mattos, warum arbeiten Sie eigentlich bei Google? Weil es ein interessanter Job ist. Die Firma ist innovativ, hier werden Technologien für das Internet entwickelt, das ist die IT-Zukunft. Verglichen mit traditionellen Unternehmen herrscht hier eine ganz andere Kultur: Wir konzentrieren uns auf neue Ideen und denken erst später daran, wie man damit Geld verdienen kann. Was war die letzte echte Innovation von Google? Google Mail? Ich bitte Sie: Google Sky, android, opensocial - all das haben wir vor Kurzem auf den Markt gebracht. Es gibt auch viele kleine Dinge, an denen wir ständig entwickeln. Zum Beispiel maschinelle Übersetzungen: Es wird in Zukunft möglich sein, in Echtzeit mit einem Menschen zu kommunizieren, der eine andere Sprache spricht. Das ist sehr innovativ. android ist noch nicht auf dem Markt. Warum sprengt das Betriebssystem für mobile Geräte die übliche Google-Entwicklungszeit von zwei Quartalen? android ist mehr als ein einziges Produkt, es ist eine offene Plattform. An deren Entwicklung sind viele Firmen beteiligt: Google baut die Plattform, andere schreiben die Anwendungen, wieder andere bauen Geräte. Das ist der Grund dafür, dass Android nicht innerhalb einiger weniger Monate fertig wird. Sind Innovationen ohne Partner überhaupt noch möglich? Google setzt auf offene Standards, denn ein Grund für den Erfolg des Unternehmens ist die offene Umgebung des Internets. Diese Transparenz ist ein Erfolgsfaktor für das zukünftige Web und seine Erweiterungen. Wer offen sein will, braucht Partner. ; Die Google-Labs bieten viel Zerstreuung: Billardtische, Schaumstoffbadewannen, Kickertische. Was hält Sie da noch im Büro? Ich muss nicht im Büro arbeiten. Ich kann mit meinem Laptop irgendwo hingehen - das Lab ist wireless vernetzt. Mein Lieblingsplatz ist die Bibliothek. Dort gibt es einen Kamin und eine Couch, da kann ich gut arbeiten. Ich verbiete niemandem, in der Badewanne zu liegen. Aber der lockere Eindruck täuscht manchmal: Alle Mitarbeiter definieren Pläne und es wird erwartet, dass sie die Ziele erfüllen. Natürlich arbeiten wir bei Google sehr frei, aber die Quartalsziele sind hart. Das spürt man kurz vor den Deadlines, wenn viele Leute besonders konzentriert arbeiten. Über Google steht das Motto "Don't be evil" - sei nicht böse. Werden Ideen verworfen, weil sie diesem Motto nicht entsprechen? Wir verwerfen Ideen, die - wie wir das nennen - nicht "googeley" sind. Es gibt ein intern oft genanntes Beispiel: Ein Ingenieur hat unseren Firmengründern Larry Page und Sergej Brin einmal eine Idee präsentiert, mit der Google viel Geld hätte verdienen können. Larry und Sergej stellten aber die Frage: "Was ist der Vorteil für den Nutzer?" Darauf hatte der Ingenieur keine Antwort - und damit war das Thema vom Tisch. Wenn der Mehrwert für den Nutzer nicht klar ist, wird ein Projekt nicht gemacht. Warum, glauben Sie, hat Microsoft Live Search so wenig Erfolg? Die Suchergebnisse sind nicht immer gut. Wer eine Anfrage stellt, möchte relevante Ergebnisse. ; Die liefert Google auch nicht immer - und da setzen Suchkonzepte wie wikia Search an. Wird das eine ernst zu nehmende Konkurrenz? Wenn Google-Nutzer nicht auf die angezeigten Treffer klicken, sind sie offenbar nicht zufrieden mit unseren Ergebnissen. So sehen auch wir, ob Treffer relevant sind oder nicht. Natürlich arbeiten wir permanent an der Verbesserung der Suche. Wir sagen nicht "Das Produkt ist fertig" und legen die Hände in den Schoß. Auf eine Suchanfrage bekommen Sie heute Tausende Treffer. Besser wäre doch nur ein Ergebnis - nämlich das beste und das relevanteste. Welche fünf Dinge muss eine Suchmaschine in fünf Jahren können? Sie wird verschiedene Dateitypen anzeigen - Bilder, Texte, Dokumente. Zweitens: Statt etwas einzutippen fragen Sie mit der Stimme -und zwar, das ist der dritte Punkt, in jeder beliebigen Sprache. Viertens: Cloud-Computing wird wichtiger. Sie können jederzeit auf Ihre Mails zugreifen, auf den Kalender oder die Kontakte in Ihrem Handy. Und als Letztes: die mobile Suche. Wo wird Google in fünf Jahren stehen? Auf Augenhöhe mit Microsoft oder so vergessen wie Netscape? So denken wir nicht. Wir denken nicht darüber nach, ob wir morgen größer oder besser sind als Microsoft. Ich denke an die Nutzer. Ich denke darüber nach, wie man Informationen zu den Leuten in der ganzen Welt bringt. Das ist, was mich motiviert - und nicht nur mich, sondern auch die meisten Google-Mitarbeiter: etwas in die Welt einzubringen."
Anmerkung: .
Themenfeld: Suchmaschinen
Objekt: Google
-
11Nagelschmidt, M.: Verfahren zur Anfragemodifikation im Information Retrieval.
Köln : Fachhochschule, Institut für Informationswissenschaft, 2008. V, 110 S. + CD.
Abstract: Für das Modifizieren von Suchanfragen kennt das Information Retrieval vielfältige Möglichkeiten. Nach einer einleitenden Darstellung der Wechselwirkung zwischen Informationsbedarf und Suchanfrage wird eine konzeptuelle und typologische Annäherung an Verfahren zur Anfragemodifikation gegeben. Im Anschluss an eine kurze Charakterisierung des Fakten- und des Information Retrieval, sowie des Vektorraum- und des probabilistischen Modells, werden intellektuelle, automatische und interaktive Modifikationsverfahren vorgestellt. Neben klassischen intellektuellen Verfahren, wie der Blockstrategie und der "Citation Pearl Growing"-Strategie, umfasst die Darstellung der automatischen und interaktiven Verfahren Modifikationsmöglichkeiten auf den Ebenen der Morphologie, der Syntax und der Semantik von Suchtermen. Darüber hinaus werden das Relevance Feedback, der Nutzen informetrischer Analysen und die Idee eines assoziativen Retrievals auf der Basis von Clustering- und terminologischen Techniken, sowie zitationsanalytischen Verfahren verfolgt. Ein Eindruck für die praktischen Gestaltungsmöglichkeiten der behandelten Verfahren soll abschließend durch fünf Anwendungsbeispiele vermittelt werden.
Anmerkung: Diplomarbeit im Studiengang Bibliothekswesen
Themenfeld: Retrievalalgorithmen
-
12Schmidt, M.: Versteckte Quellen im Netz : Downloads per FTP, IRC oder Newsreader.
In: Chip. 2003, H.3, S.27-38.
Abstract: Manchmal verzweifeln auch abgebrühte Surfer: Downloads brechen ab, Video-Streams ruckeln, Dateien lassen sich einfach nicht finden. CHIP zeigt Ihnen das Gegenprogramm: Schelle Datei-Quellen per FTP, IRC oder Newsserver, die jede Tauschbörse deklassieren
Themenfeld: Internet
Objekt: FTP ; IRC
-
13Schmidt, M.: WWW - eine Erfindung des "alten Europa" : Vom Elektronengehirn zum world Wide Web - Inzwichen 620 Millionen Internetnutzer weltweit.
In: Bergische Landeszeitung. Nr.93 vom 22.4.2003, S.rth01a/1.
Inhalt: "Das World Wide, Web hat, wen wundert es, eine Vorgeschichte. Und zwar, und da staunt der Laie denn doch, im Internet. World Wide Web, Internet - ist denn das nicht dasselbe? Nein. Ist es nicht. Das WWW ist eine Funktion des Internet. Eine von vielen. So wie Email und Chat. Die Geschichte ist die. In den 40er Jahren des 20. Jahrhunderts wurden die ersten EDV-Anlagen gebaut. In den 60er und 70er Jahren gehörten riesige Computer mit Lochkarten, Magnetbändern und Endlos-Ausdrucken zu den Prestige-Objekten von Unis, , Banken und Firmen, ehrfürchtig "Elektronengehir ne" oder ironisch "Blechtrottel" genannt. 1957 hatte das US-Verteidigungsministerium unter dem Eindruck des Sputnik-Schocks die Forschungsinstitution ARPA gegründet. Zwölf jahre später entstand das ARPAnet - ein Projekt zur Entwicklung eines Forschungsnetzes, das Universitäten und zivile wie militärische US-Einrichtungen verband. Dass die treibende Kraft das Bedürfnis gewesen sein soll, das Netz vor Bomben zu schützen, ist wohl ein Gerücht. Nach Larry Roberts, einem der "Väter" des Internet, kam dieses Argument erst später auf. Es erwies sich als nützlich für das Aquirieren von Forschungsgeldern... Die globale elektronische Kommunikation blieb nicht auf die Welt der Akademiker beschränkt. Das Big Business begann die Lunte zu riechen. Fast überall, wanderten die Handelsmärkte vom Parkett und den Wandtafeln auf die Computerbildschirme: Das Internet war mittlerweile zu einem brauchbaren Datenübermittlungsmedium geworden, hatte aber noch einen Nachteil: Man konnte Informationen nur finden, wenn man wusste, wo man suchen muss. In den Folgejahren kam es zu einer Explosion in der Entwicklung neuer Navigationsprotokolle, es entstand als bedeutendste Entwicklung das WWW -übrigens im "alten Europa", am europäischen Forschungszentrum für Teilchenphysik (CERN) in Genf. Erfunden hat es Tim Berners-Lee. Seine Erfindung war eine doppelte. Zunächst die Anwendung des schon lange bekannten Hypertextprinzipes (Ted Nelson, 1972) auf elektronische Dokumente - in der Hypertext Markup Language (HTML). Und dann eine einfache von Herrn und Frau Jedermann bedienbare grafische Oberfläche, die diese Dokumente, austauscht und zur Anzeige bringt (über das Hypertext Transport Protokoll - HTTP). Die allererste Software hieß "Mosaic" und wird heute Browser genannt. Im April 1993 gab das CERN die World-Wide-Web-Software für. die Öffentlichkeit frei, zur unbeschränkten und kostenlosen Nutzung. Heute umfasst das WWW über 32 Millionen registrierte Domain-Namen, davon 5 Millionen .deDomains, und der weltweite Zugang zum Internet erreichte Ende 2002 über 620 Millionen Nutzer."
Themenfeld: Internet
Objekt: WWW
-
14Schmidt, M.: Microsoft Windwos XP : Das Ende der Anonymität im Intenret.
In: Wechselwirkung. 24(2002) Nr.114, S.38-45.
Themenfeld: Internet
-
15Reinke, S. ; Schmidt, M.: Einmal suchen, alles finden : 7 Meta-Suchmaschinen im Test.
In: Chip. 2001, H.5, S.291-299.
Abstract: Von MetaSuchmaschinen oder Metacrawlern erwarten viele Datensucher Wunder. Die Crawler durchstöbern Kataloge von Suchmaschinen, fassen Ergebnisse zusammen, gleichen sie ab und präsentieren sie. CHIP hat sieben deutschsprachige, kostenlose Metacrawler getestet
Themenfeld: Suchmaschinen
Objekt: Bingoo ; Metalook ; Metacrawler ; MetaGer ; Suchen.com ; Averdo ; Metaspinner
-
16Potempa, T. ; Franke, P. ; Osowski, W. ; Schmidt, M.-E.: Informationen finden im Internet : Leitfaden für die gezielte Online-Recherche.
München : Hanser, 1998. IX,346 S.
ISBN 3-446-19242-5
Abstract: Das Internet entwickelt sich zunehmend zu einem Medium, das prinzipiell jedem Informationen aus allen Bereichen zugänglich macht, egal, ob es sich um Themen wie Recycling, Fussballbundesliga, Geldanlage oder Urlaubsreisen handelt. Durch die Fülle der zu durchsuchenden Daten übersteigt der Zeitaufwand für die Prüfung und Auswertung der Daten jedoch häufig den eigentlichen Nutzen der gesuchten Information. Genau hier setzt dieses Buch an, indem es systematisch die wichtigsten Hilfsmittel für die Informationssuche im Internet auf ihre Leistungsfähigkeit und Eignung bei der Suche beschreibt und bewertet. Außerdem werden Strategien zur richtigen Kombination von Suchhilfsmitteln vermittelt, Tips zur schnellen Beurteilung der gefundenen Informationen gegeben und Möglichkeiten beschrieben, wie man als Informationsanbieter im Internet gefunden werden kann
Themenfeld: Internet ; Suchmaschinen ; Grundlagen u. Einführungen: Allgemeine Literatur
RSWK: Internet / Online-Recherche (21) ; Internet / Suchmaschine (21)