Search (26736 results, page 1337 of 1337)

  1. Hähle, S.: Verborgenes Entdecken (2005) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 34) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=34,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
      0.2 = coord(1/5)
    
    Content
    "Oft hört man: "Suchen im Web - das kann doch jeder." Doch immer wieder erreichen uns Zuschriften, in denen uns Leser ihr Leid darüber klagen, dass sie im Datendschungel des Internets nicht die Informationen erhielten, die sie eigentlich interessieren würden. Wenn es Ihnen auch so geht, helfen ihnen hoffentlich die folgenden Tipps und Tricks. Wie Suchmaschinen denken Die meisten Suchmaschinen bestehen aus drei Teilen. Der erste ist der Informationssammler, Robot, Spider oder auch Crawler genannt. Er surft automatisch auf Webseiten und schickt die gesammelten Daten an den Index. Dieser ist das Verzeichnis aller Webseiten, die die Suchmaschine kennt. Der zweite Teil ist die Indizierungs-Software, die die Daten strukturiert und durchsuchbar macht. Eine dritte Software wertet die Suchanfrage aus. Sie schickt die Anfrage an den Index-Rechner, der die Ergebnisse präsentiert. Hierbei berücksichtigt sie meist auch, an welcher Stelle der Suchbegriff im Dokument steht. Wenn das Suchwort in der Beschreibung der Webseite vorkommt, wird es höher gewichtet, als wenn es im Text der Seite steht. Eine Besonderheit ist das PageRank-System von Google. Je mehr Links auf eine Seite verweisen, umso wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, umso größer der positive Effekt für ein Suchergebnis. Suchanfragen richtig stellen Es macht wenig Sinn, nach einem häufigen Begriff wie "Musik" zu suchen. Sie müssen schon genauer angeben, nach was Sie suchen, etwa "achtziger Jahre" oder "MP3 Download". Überlegen Sie außerdem, welche Begriffe Sie von der Suche explizit ausschließen können. Eine Suche sollte dennoch nicht mit zu vielen verknüpften Begriffen beginnen. Ein schrittweises Eingrenzen bietet sich an. Oft ist es auch hilfreich, die Wörter leicht zu variieren. Spezielle Suchdienste Wenn Sie wissen, in welchem Fachgebiet Sie Information suchen, sollten Sie eine Spezial-Suchmaschine probieren. Die Portalseite Klug Suchen (www.klug-suchende) und das Suchlexikon (www.suchlexikon.de) verzeichnen eine große Menge besonderer Suchdienste für das deutschsprachige Internet. Weitere Spezialisten, vor allem im amerikanischen Raum, listet The Big Hub (www.thebighub.com) auf. Metasuchmaschinen Metasuchmaschinen suchen in mehreren Suchmaschinen auf einmal, um mehr oder gezieltere Ergebnisse zu erhalten. Ob sich der Einsatz lohnt, müssen Sie von Fall zu Fall entscheiden. Die bekanntesten Metasuchmaschinen für das deutschsprachige Netz sind Metacrawler (www.metacrawler.de) sowie MetaGer (www.metager.de).
  2. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 38) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=38,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 38, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.2 = coord(1/5)
    
    Footnote
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  3. Helmkamp, K.; Oehlschläger, S.: Standardisierung : Ein Meilenstein auf dem Weg zur Internationalisierung; Im Jahr 2007 erfolgt der Umstieg auf MARC 21 (2006) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 65) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=65,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 65, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=65)
      0.2 = coord(1/5)
    
    Content
    Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten Der Arbeitsschwerpunkt Aufbau und Pflege von Kontakten zu internationalen Gremien und Experten bezieht sich in erster Linie auf die Teilnahme an den Sitzungen des Machine Readable Bibliographic Information Committee (MARBI), zu dessen wichtigsten Aufgaben die Pflege und Weiterentwicklung des MARC-Formats und somit auch die Entscheidung über Änderungsanträge gehören. Kern von MARBI sind drei Ex-Officio-Vertreter der Library of Congress (LC), von Library and Archives Canada (LAC) und der British Library. Dazu kommen neun Mitglieder mit Stimmrecht aus verschiedenen Untergliederungen der ALA und von anderen großen Institutionen, Die Sitzungen von MARBI finden jeweils im Januar und Juni in Verbindung mit den Tagungen der American Library Association (ALA) statt und sind offen für interessierte Gäste und Zuhörer. Im Jahr 2006 nahmen Vertreter der Deutschen Nationalbibliothek und der Expertengruppe Datenformate an Sitzungen in San Antonio sowie New Orleans teil und nutzten dabei auch die Gelegenheit, im Rahmen von Arbeitstreffen mit MARC-21-Experten wichtige Details des geplanten Umstiegs intensiv und eingehend zu erörtern. Die Vorbereitungen für den Formatumstieg liegen im Wesentlichen im Zeitplan. Die Zusammenarbeit mit internationalen Gremien und Experten, insbesondere mit MARBI, wird im Jahr 2007 fortgeführt und intensiviert werden, weitere Workshops befinden sich bereits in der Planung. Im Herbst wird eine Arbeitsgruppe aus Vertretern der Verbünde eingesetzt, die den Umstieg auf der operativen Ebene konkret planen soll. Die Deutsche Nationalbibliothek als Träger des Projekts ist zuversichtlich, dass der Umstieg auf MARC 21 im Jahre 2007 als gut vorbereiteter, konzertierter und flächendeckender Schritt in allen Verbünden durchgeführt werden kann."
  4. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 465) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=465,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=465)
      0.2 = coord(1/5)
    
    Content
    DDC-vascoda Für den Sucheinstieg bei vascoda wird bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungsjahr) kombiniert werden kann, angeboten. Die Suche kann zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Da in vascoda die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument eingeführt ist und bereits nennenswerte Bestände mit der DDC erschlossen sind, bietet sich die Möglichkeit, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Im Berichtszeitraum wurde in der vascoda AG Betrieb und mit dem hbz als Portalbetreiber die konzeptionelle und technische Einbindung des DDC-Browsings im vascoda-Portal diskutiert und beschlossen. Die Navigation mit DDC wird ähnlich wie die Navigation über die Fachcluster auf der linken Seite der Trefferliste integriert, beim Navigieren im Baum werden synchron die passenden Ressourcen aus der Suchmaschine in der mittleren Spalte eingeblendet. Wegen hoher Arbeitsbelastung im hbz wird dieses Feature wahrscheinlich nicht Teil des vascoda-Relaunches im Juni 2007 sein, sondern erst im 2. Halbjahr 2007 integriert werden. Weiter wurde ein Angebot implementiert für Fachportale und andere Institutionen, die mit DDC erschließen, aber nicht die technischen Möglichkeiten haben, ein eigenes Browsing zu entwickeln. Das Verfahren sieht vor, dass die DNB einen Dienst anbietet, der ein HTML-Snippet mit der gewünschten Browsing-Struktur generiert (ähnlich wie MelvilSearch), die in die Oberfläche des Fachportals integriert werden kann. Der Dienst wird voraussichtlich im 2. Quartal 2007 in Betrieb genommen werden können. In Zusammenarbeit mit der SUB Göttingen wurde ein Workshop zum Thema Lizenzfragen für DDC in Bezug auf Fachportale und andere Online-Angebote abgehalten. Die Ergebnisse wurden im vascoda-Newsletter veröffentlicht.
  5. Fugmann, R.: ¬Das Buchregister : Methodische Grundlagen und praktische Anwendung (2006) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 665) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=665,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=665)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.186 (J. Bertram): "Bei aller Kritik: Das Buch gemahnt eindrücklich daran, dass ein gutes Register sowohl den Anforderungen einer Entdeckungsrecherche als auch denen einer Erinnerungsrecherche dienlich sein sollte, um es mit Fugmanns Worten auszudrücken. Heißt: Es soll nicht nur denen zugute kommen, die das Buch gelesen haben, sondern eben gerade auch denjenigen, die es nicht gelesen haben. Nicht nur erinnerte Wortlaute sollen mit ihm wieder auffindbar sein, vielmehr soll das Register auch schnelle Antworten auf die Frage ermöglichen, ob ein Buch zum interessierenden Thema Ergiebiges enthält. Und dass für das zweite Anliegen ein Aufwand zu betreiben ist, der über ein reines Stichwortregister hinausgeht, wird von Fugmann anschaulich und überzeugend dargestellt. Auch seinem Wunsch, dass bei der Rezension vor Büchern Vorhandensein und Qualität des Registers (stärkere) Berücksichtigung finden mögen, ist uneingeschränkt zuzustimmen. Dass das vor ihm produzierte Register des Guten zu viel tut, steht auf einem anderen Blatt."
  6. Schmeh, K.: ¬Die WeIt der geheimen Zeichen : die faszinierende Geschichte der Verschlüsselung (2004) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 1445) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=1445,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 1445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1445)
      0.2 = coord(1/5)
    
    Footnote
    Das Buch beeindruckt durch eine große Vielfalt von Themen. So wird auch das Problem angesprochen, dass ein eigentlich sicheres Verfahren dadurch gefährdet sein kann, dass dem Angreifer Seitenkanäle der Information, wie etwa der Stromverbrauch einer Chipkarte, zur Verfügung stehen. Potenzielle Bedrohungen gegenwärtiger Verschlüsselungsverfahren sind der DNA-Computer und der Quantencomputer. Aber man hat die Aussicht, den Teufel mit dem Beelzebub auszutreiben, nämlich den Quantencomputer mit der Quantenkryptografie. Nicht ausdrücklich in dem Buch angesprochen ist das Problem der Authentifikation von Nachrichten. Der Empfänger einer Nachricht muss sich vergewissern, dass ihr Sender der ist, der er zu sein vorgibt. Sonst könnte sich ein Obeltäter bereits beim Schlüsselaustausch unbemerkt zwischen die beiden Parteien drängen und von da an jede Kommunikation unter ihnen unentdeckt verfälschen. Dagegen hilft auch das einzige nachweislich unknackbare Verschlüsselungsverfahren, der One-Time-Pad, nicht, da ein Angreifer gezielt »Bits kippen« und so die Nachricht, ohne sie zu entschlüsseln, verfälschen kann. Da selbst Fachbücher kaum auf dieses Problem hinweisen, wurde der One-Time-Pad bereits - nutzlos - in kommerzielle quantenkryptografische Programme eingebaut. Die in dem Buch besprochenen digitalen Signaturen können solche Probleme lösen, solange man nicht auf nachweislicher Unknackbarkeit besteht. Schmeh widmet sich auch den so genannten Hash-Funktionen, die aus einer großen Datei eine kurze Kennnummer errechnen und damit etwa Signaturverfahren beschleunigen können, da es genügt, diese Kennnummer zu signieren.
  7. Schneider, M.: Ende einer Epoche : Jetzt geht also auch der Brockhaus online. Bedeutet das das Ende der Gutenberg-Galaxis? Oder ist es doch nur das Ende des Bücherschrankwissens? (2008) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 1799) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=1799,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 1799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1799)
      0.2 = coord(1/5)
    
    Content
    Mit dem Bürger verschwinden auch seine Embleme. Wenn nun ab April das Wissen der Brockhaus-Enzyklopädie kostenfrei über werbungfinanzierte Internetseiten abgerufen werden kann, dann setzt sich über diesen Einschnitt hinweg eine Tradition fort, die der Untertitel des ersten Werks zum Programm machte, das dem Publikum "mit vorzüglicher Rücksicht auf die gegenwärtige Zeit" angeboten worden war. Bereits die ersten Bände der prächtigen aktuellen Printausgabe des Brockhaus sind um zwei DVD's ergänzt, die Dialekte, Tierstimmen, Beispiele aus Musik, Literatur, Theater und Film, Augenzeugenberichte, Reden und Dokumente der Zeitgeschichte bietet. Um den Zeitnachteil der Buchredaktion auszugleichen, erhielten die Subskribenten der neusten Ausgabe sogleich Zugang zur Online-Version der gesamten Enzyklopädie. Der Rückblick in die Historie des Brockhaus zwingt dem Büchermenschen unserer Tage die melancholische Einsicht ab, dass hier nicht nur ein verlegerischer Strategiewechsel erfolgt, sondern dass sich eine Epoche schließt. Das Buch als Leitmedium der Aufklärung, des politischen Fortschritts und als Institution eines Wissens, das aus den dicken, mit Leder eingeschlagenen Bänden sowohl Solidität als auch Zeitresistenz sprechen lässt, tritt in den Schatten der neuen Götter, die Schnelligkeit, Aktualität und Mulimedia heißen. Es ist nicht, wie mancher Kommentator vermutet, der Erfolg solcher Online-Unternehmen wie der Wikipedia-Enzyklopädie, die die Verleger zum Handeln zwingt. Die Notwendigkeit geht vielmehr von den beiden dynamischen Kräften aus, denen das Wissen heute unterliegt. Das Internet-Medium allein vermag dem Tempo, der ständigen Erweiterung, Verwandlung und vor allem dem überaus dauernden Obsoletwerden des Wissens eine Form zu geben. Was 1809 "vorzügliche Rücksicht auf die Zeit" hieß, das liest sich erst in unseren Tagen so überaus doppelsinnig. Die Rücksicht auf die Zeit lässt auch den Wissenschaftler oder die Redakteurin am Bildschirm den schnellsten Weg zur benötigten Information wählen. Den raschesten Weg zu den Daten, den die Erzeuger, Verwalter und Verbreiter des Wissens einschlagen, erschließt der Tastenhieb. Damit nicht genug: Die erste Quelle, die die Google-Anfrage anbietet, eröffnet für das maßlos hybrid werdende Wissen eigentlich auch nur die Plattform, um auf den berühmten Hypertextpfaden weitere Informationen abzurufen: Bilder, Tondokumente, Filme und zusätzliche historische oder wissenschaftliche Literatur. Auf eine schwer vorstellbare Weise nimmt das Wissen, das sich einst in der Tiefe der Lederbände zur Ruhe und zur dauerhaften Gültigkeit niedergelegt hatte, heute über die online-Abrufbarkeit die Qualität einer dauernden virtuellen Präsenz ein.
  8. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 2678) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=2678,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 2678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2678)
      0.2 = coord(1/5)
    
    Content
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
  9. Hänger, C.; Krätzsch, C.; Niemann, C.: Was vom Tagging übrig blieb : Erkenntnisse und Einsichten aus zwei Jahren Projektarbeit (2011) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 4519) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=4519,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 4519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4519)
      0.2 = coord(1/5)
    
    Abstract
    Das DFG-Projekt "Collaborative Tagging als neue Form der Sacherschließung" Im Oktober 2008 startete an der Universitätsbibliothek Mannheim das DFG-Projekt "Collaborative Tagging als neue Form der Sacherschließung". Über zwei Jahre hinweg wurde untersucht, welchen Beitrag das Web-2.0-Phänomen Tagging für die inhaltliche Erschließung von bisher nicht erschlossenen und somit der Nutzung kaum zugänglichen Dokumenten leisten kann. Die freie Vergabe von Schlagwörtern in Datenbanken durch die Nutzer selbst hatte sich bereits auf vielen Plattformen als äußerst effizient herausgestellt, insbesondere bei Inhalten, die einer automatischen Erschließung nicht zugänglich sind. So wurden riesige Mengen von Bildern (FlickR), Filmen (YouTube) oder Musik (LastFM) durch das Tagging recherchierbar und identifizierbar gemacht. Die Fragestellung des Projektes war entsprechend, ob und in welcher Qualität sich durch das gleiche Verfahren beispielsweise Dokumente auf Volltextservern oder in elektronischen Zeitschriften erschließen lassen. Für die Beantwortung dieser Frage, die ggf. weitreichende Konsequenzen für die Sacherschließung durch Fachreferenten haben konnte, wurde ein ganzer Komplex von Teilfragen und Teilschritten ermittelt bzw. konzipiert. Im Kern ging es aber in allen Untersuchungsschritten immer um zwei zentrale Dimensionen, nämlich um die "Akzeptanz" und um die "Qualität" des Taggings. Die Akzeptanz des Taggings wurde zunächst bei den Studierenden und Wissenschaftlern der Universität Mannheim evaluiert. Für bestimmte Zeiträume wurden Tagging-Systeme in unterschiedlichen Ausprägungen an die Recherchedienste der Universitätsbibliothek angebunden. Die Akzeptanz der einzelnen Systemausprägungen konnte dann durch die Analyse von Logfiles und durch Datenbankabfragen ausgewertet werden. Für die Qualität der Erschließung wurde auf einen Methodenmix zurückgegriffen, der im Verlauf des Projektes immer wieder an aktuelle Entwicklungen und an die Ergebnisse aus den vorangegangenen Analysen angepaßt wurde. Die Tags wurden hinsichtlich ihres Beitrags zum Information Retrieval mit Verfahren der automatischen Indexierung von Volltexten sowie mit der Erschließung durch Fachreferenten verglichen. Am Schluss sollte eine gut begründete Empfehlung stehen, wie bisher nicht erschlossene Dokumente am besten indexiert werden können: automatisch, mit Tags oder durch eine Kombination von beiden Verfahren.
  10. Koch, C.: Bewusstsein : ein neurobiologisches Rätsel (2005) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 4559) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=4559,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 4559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4559)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2006, H.6, S.101-102 (M. Springer): "Wir erforschen den Kosmos, um zu erfahren, woher wir kommen, und die Welt der Elementarteilchen, weil wir erkennen wollen, woraus wir letztlich bestehen. Nun wenden wir uns mit dem in Jahrhunderten gewonnenen Wissen dem nächstliegenden Forschungsobjekt zu: dem eigenen Gehirn. Das ist ein Schwindel erregendes Unternehmen, denn dabei beugt sich gewissermaßen das Gehirn wissbegierig über sich selbst. Geht das? Kann eine ursprünglich zur Analyse der unbelebten, bewusstlosen Natur entwickelte Methode jemals erklären, wie unser Gehirn Bewusstsein produziert? Muss nicht zwischen physikalisch-chemischen Hirnvorgängen und unserem sinnlichen Erleben von Farben, Schmerzen und Emotionen die notorische »Erklärungslücke« der Bewusstseinsforschung klaffen? Es kommt auf den Versuch an. Wer wissen will, was die Naturwissenschaft - konkret die Neurobiologie - bisher über die materielle Basis unseres bewussten Erlebens herausgebracht hat, sollte dieses Buch lesen. Christof Koch sucht empirisch nach den »neuronalen Korrelaten des Bewusstseins« (neuronal correlates of consciousness, NCCs) - dem kleinsten Satz neuronaler Ereignisse, der für eine bestimmte bewusste Wahrnehmung hinreichend ist. Gewiss vermag unser Gehirn noch viel mehr, als bloß Sinneserlebnisse zu vermitteln: Wir können sprechen, Erlebnisse reflektieren, zählen, logisch denken und so weiter. Das vergleichsweise bescheidene Projekt, NCCs für bewusste visuelle Wahrnehmung zu suchen, hat Koch gemeinsam mit Francis Crick, dem Mitentdecker des genetischen Codes, bis zu dessen Tod 2004 verfolgt, weil die beiden darin den einfachsten Zugang zum Rätsel des Bewusstseins sahen. Damit wiederholte Crick eine Vorgehensweise, mit der er schon 1953 erfolgreich war: zur Erforschung des bislang Unvorstellbaren zunächst ein möglichst einfaches Beispiel zu studieren. Bevor Crick zusammen mit James Watson die Struktur der DNA aufdeckte, konnten die Biologen sich nicht vorstellen, wie ein einzelnes Molekül die Information über den Aufbau eines lebenden Organismus enthalten sollte. Analog hofften später Crick und Koch, aus der Struktur der Neuronen und ihren Wechselwirkungen auf die physische Grundlage des Bewusstseins schließen zu können.
  11. Krajewski, M.: Zettelwirtschaft : Die Geburt der Kartei aus dem Geiste der Bibliothek (2002) 0.00
    8.401267E-4 = product of:
      0.0042006336 = sum of:
        0.0042006336 = weight(_text_:information in 621) [ClassicSimilarity], result of:
          0.0042006336 = score(doc=621,freq=4.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.04800135 = fieldWeight in 621, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.013671875 = fieldNorm(doc=621)
      0.2 = coord(1/5)
    
    Content
    Der erste Hauptteil 'Um 1800' versucht daraufhin, mit einem Bruch in der Anwendungsweise des Gessnerschen Verfahrens dessen erste Diskontinuität nachzuweisen. Nicht zuletzt wegen dieses Einschnitts muß die Art der Verzeichnung bis dato das Attribut vorläufig tragen. Die Verzettelungstechnik gelangt von einem temporären Gebrauch zur dauerhaften Verwendung, was dadurch eine ebenso unbeabsichtigte wie folgenreiche Umstellung markiert. Gleichzeitig entsteht hiermit der bibliothekshistorisch erste Zettelkatalog, dessen unverhoffter Einsatz und Genese in Wien um 1780 eine detaillierte Beschreibung erfährt. Der Zettelkatalog besteht nicht nur als bibliothekarische Antwort auf einen drohenden information overflow, sondern vor allem dank seiner umsichtigen Logistik. Entscheidend dabei sind schriftlich fixierte, genaue Handlungsanweisungen, anhand derer auch unausgebildetes Personal in den arbeitsteiligen Prozeß eingebunden werden kann. Mit Hilfe eines kleinen Exkurses soll zuvor jedoch die Koinzidenz zweier Adressierungslogiken untersucht werden: In einem Jahrzehnt und derselben Stadt fällt die Entstehung des Zettelkatalogs zusammen mit der Erfindung der Hausnummer. Damit etabliert sich eine Möglichkeit zur abstrakteren Repräsentation und zu einem kontrollierenden Zugriff auf Schriften bzw. Hausbewohner. Das anschließende dritte Kapitel verbleibt in der Umbruchphase um 1800, indem es eine notwendige Differenz zieht zwischen der Bibliothekstechnologie von vielen Schreib- für viele Lese-Köpfe und einer eigenwilligen Anordnung von gelehrten Exzerptensammlungen. Die Unterscheidung trennt ein Server-Konzept von einer Workstation-Philosophie. Der erste Zettelkatalog ist nicht nur das Produkt eines kollektiven Arbeitsprozesses, sondern vor allem für eine vielköpfige Benutzung geeignet und konzipiert. Im Gegensatz zu diesem Multi-User-System verwehrt die idiosynkratische Maschine in Form eines Gelehrtenkastens gerade jede fremde Einsichtnahme. Sie besitzt keine Vermittlungsnotwendigkeit, so daß sich das interne System der Verzeichnung durchaus unverständlich für alle Einsichtnehmenden ausnehmen darf. Auch eine Form von Datenschutz, die anhand der eigentümlichen gelehrten Exzerpiertechniken in einer kleinen Genealogie von Johann Jacob Moser bis zu Jean Paul und anderen konturiert wird. Das vierte und letzte Kapitel des ersten Teils widmet sich einer ersten Übertragung alteuropäischer Bibliothekstechnik in die Neue Welt. Das Zettelkastenprinzip erreicht einerseits die amerikanische Ostküste durch Bibliothekare, die in Europa studieren, um die dort etablierte Praxis der Katalogisierung auf ihre im Laufe des 19. Jahrhunderts schnell anwachsenden Büchersammlungen anzuwenden. Andererseits jedoch besitzen die Vereinigten Staaten auch eine eigene, autochthone Genealogie der Verzettelung. 1817 gelingt William Croswell bei seinem unglücklichen Projekt, der Harvard College Library einen umfassenden Katalog zu verschaffen, die Geburt des amerikanischen Zettelkatalogs aus dem Geiste der Faulheit.
    Manches hat der Zettelkasten verschwiegen, um seine eigene Ökonomie und die des notwendigerweise beschränkten Umfangs dieser Studie nicht allzu sehr zu beanspruchen - manches schlechterdings aus Mangel an Information. Allererstes Manko ist die Verlegenheit, keine Universalgeschichten mehr schreiben zu können. So beginnt diese Geschichte nicht mit dem Anfang von Geschichte und beschreibt demzufolge keine mesopotamischen, ägyptischen, griechischen oder römischen Register als Verzeichnisse der gespeicherten Schriften. Auch die berühmte Bibliothek von Alexandria samt ihrem ebenso berühmten Bibliothekar Kallimachos, der die Inventare der Schriften auf tönernen Pinakes an den Regalen fixierte, bleibt außen vor. Statt dessen steht am Beginn der Karteigeschichte eine (vermeintliche) Urszene des 16. Jahrhunderts, die vielleicht auch anders, d.h. früher, hätte gesetzt sein können. Des weiteren vermag diese Studie nicht, einem ausgelobten Desiderat abzuhelfen, eine schlichte Fußnote bei Foucault: »Aufkommen der Karteikarte und Konstituierung der Humanwissenschaften: noch eine Erfindung, die von den Historikern wenig gefeiert wird.« Wenngleich die eine Entwicklung, die »Konstitution der Humanwissenschaften«, dieser Studie als methodisches Leitbild dient, konnte die direkte Verbindung zum Erscheinen der Karteikarte nicht eindeutig geknüpft werden. Geplant war, ein Desiderat der Fußnote zur Entfaltung zu bringen, d.h. einem Exkurs zur Evolution der Karteikarte die letztendliche Übertragungs-Leistung zwischen Bibliothekaren und Kaufleuten ab 1890 anzufügen. Der Exkurs mußte gleichwohl einer anderen, bereits erwähnten Ökonomie, der Raumnot, zum Opfer fallen. In diesem Kapitel, das im Anschluß an das zweite gefolgt wäre, hätte nicht nur die verfestigende Entwicklung einer Materialität der Karteikarte vom Papierschnipsel bis zu ihrer Aufrechtigkeit als Leit-Karton Platz gefunden. (Diese Episode zieht sich nun implizit durch die Beschreibung einer fortschreitenden Standardisierung.) Foucaults beunruhigende Bemerkung stellt des weiteren, Bonneville zitierend, bereits für das Jahr 1833 einen direkten Zusammenhang her zwischen der Karteikarte und einer kaufmännischen Verzeichnungstechnik. Die Monographie zu den technischen Medien der Kaufleute ist leider noch ungeschrieben oder dem hier ins Spiel geratenen Zettelkasten bislang zumindest unbekannt. Darüber hinaus wäre der Versuch unternommen worden, die isomorphe Logik der Repräsentation von Zetteln und Banknoten sowie ihren Zusammenfall in den Zettel/Daten/Banken zu schildern. So muß die Episode über die Zirkulation von Geld und Ideen ihrerseits auf eine Fußnote zur Bank of England beschränkt bleiben und auf diese Anmerkung.
  12. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.00
    6.7892496E-4 = product of:
      0.0033946247 = sum of:
        0.0033946247 = weight(_text_:information in 2789) [ClassicSimilarity], result of:
          0.0033946247 = score(doc=2789,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.03879095 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
      0.2 = coord(1/5)
    
    Content
    "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
  13. Schult, T.J.: Lernen vom Schinken in Scheiben : Was taugen die aktuellen Enzyklopädien auf CD-ROM und DVD? Ein Test (2004) 0.00
    6.7892496E-4 = product of:
      0.0033946247 = sum of:
        0.0033946247 = weight(_text_:information in 799) [ClassicSimilarity], result of:
          0.0033946247 = score(doc=799,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.03879095 = fieldWeight in 799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=799)
      0.2 = coord(1/5)
    
    Content
    "Gute Multimedia-Enzyklopädien versammeln den Inhalt von 15 bis 20 dicken Wälzern auf CD-ROM oder DVD. Die zumeist deutlich billigeren Enzyklopädien für den Computer ermöglichen eine vielfältige Vernetzung von Information: Gliederungen, Begriffserklärungen, thematisch verwandte Artikel, Landkarten und Zeitleisten sind nur einen Mausklick entfernt. Auch Multimedia-Beigaben öffnen sich im Nu: Grafiken, Tabellen, Fotos, Animationen, Film- und Tondokumente illustrieren die Artikel. Der »gläserne Mensch« von Brockhaus entledigt sich auf Kommando der Haut, Muskeln, Gefäße oder Organe. Die Suche nach Artikeln beginnt, wenn man den Begriff auf dem Bildschirm ins Eingabefeld tippt. In einer guten elektronischen Enzyklopädie startet dann ein zweistufiger Prozess aus Stichwort- und Volltextsuche, der mit der Ausgabe einer Trefferliste endet. Oben in der Liste sind Artikel genannt, die den Suchbegriff im Titel haben (also etwa »Wittgenstein, Ludwig« bei Eingabe von »Wittgenstein«), darunter die Artikel, die den Suchbegriff irgendwo außerhalb des Titels enthalten (in diesem Fall etwa »Analytische Philosophie«). Wer mehrere Begriffe eintippt, kann sie unterschiedlich verknüpfen. Reicht es, wenn die Artikel einen der Suchbegriffe enthalten? Sollen alle drin sein? Gar alle direkt hintereinander (Wortfolgensuche)? Wer seiner Enzyklopädie durch Kommentare, Lesezeichen, Web-Links oder eigene Artikel eine persönliche Note geben möchte, kann dies am Computer beliebig oft tun, ohne das Missfallen von Mitlesern zu erregen. Steht etwa ein Referat an, mutieren bessere Werke zudem zum Recherche-Assistenten, der das Sammeln, Sortieren und Nutzen von Textstellen durch eine Art virtuellen Karteikasten plus Textverarbeitung unterstützt.
  14. Nübel, R.: ¬Der Spatz als Lernhilfe (2011) 0.00
    6.7892496E-4 = product of:
      0.0033946247 = sum of:
        0.0033946247 = weight(_text_:information in 4436) [ClassicSimilarity], result of:
          0.0033946247 = score(doc=4436,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.03879095 = fieldWeight in 4436, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=4436)
      0.2 = coord(1/5)
    
    Theme
    Information
  15. Tetens, H.: ¬Der neuronal gläserne Mensch : Hochkomplexes und hypersensitives System: Im Gehirn selbst könnten die Befürworter der Willensfreiheit einen unerwarteten Verbündeten finden (2004) 0.00
    6.7892496E-4 = product of:
      0.0033946247 = sum of:
        0.0033946247 = weight(_text_:information in 36) [ClassicSimilarity], result of:
          0.0033946247 = score(doc=36,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.03879095 = fieldWeight in 36, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=36)
      0.2 = coord(1/5)
    
    Theme
    Information
  16. Andelfinger, U.: Zur Aktualität des kritischen Diskurses über Wissens- und Informationssysteme : Versuch einer Bestandsaufnahme zum 50. Ernst-Schröder-Kolloquium im Mai 2006 (2006) 0.00
    6.7892496E-4 = product of:
      0.0033946247 = sum of:
        0.0033946247 = weight(_text_:information in 353) [ClassicSimilarity], result of:
          0.0033946247 = score(doc=353,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.03879095 = fieldWeight in 353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=353)
      0.2 = coord(1/5)
    
    Content
    - Zunehmende Verfügbarkeit von Breitband-Internetzugängen auch in privaten Haushalten als infrastrukturelle Voraussetzung - Zunehmend einheitliche Nutzung des Browsers als universeller Einstiegspunkt in vielfältige Wissens- und Informationssysteme - Fortschritte in der softwareergonomischen Gestaltung von Benutzungsoberflächen und Dominanz graphischer Benutzungsoberflächen Diese Entwicklungen haben sich beispielsweise auch viele Menschenrechts- und Umweltschutzinitiativen positiv zu Nutze gemacht: Mit weit weniger materiellem Aufwand als früher kann eine ungleich größere globale Öffentlichkeit z.B. für politische Gefangene, für Demokratisierungsbewegungen und für Umweltskandale geschaffen werden. Gerade das Verschwinden der anfänglich oft noch klar erkennbaren eingesetzten grundlegenden Methoden, Verfahren und Programme der Wissens- und Informationsverarbeitung hinter einer oft vorrangig auf graphische Effekte abstellenden Oberfläche ist jedoch ein Phänomen, das nur umso deutlicher die Aktualität der kritischen Diskurse des Ernst-Schröder-Zentrums hervortreten läßt. Der durch den Schein einer intuitiv attraktiv wirkenden Benutzungsoberfläche hervorgerufene Eindruck einer ebensolchen Einfachheit' der dahinter liegenden Datenverarbeitungsprozesse trügt zunehmend. Dies hat sicher aus Sicht des barrierefreien Zugangs zunächst Vorteile. Allerdings kann dies auch rasch zu einem (oft nicht einmal unmittelbar wahrnehmbaren) Abbau kognitiver Autonomie führen: Wer weiß beispielsweise angesichts der Komplexität heutiger internetbasierter e-Business Systeme noch im Sinne des Grundrechts der Informationellen Selbstbestimmung, wer welche Daten über ihn hat? Außerdem verschwimmen dabei zunehmend verschiedene Weltsichten. Zunehmend wird beispielsweise für wahr und für Welt' gehalten, was zu einem gewissen Sachverhalt über Suchmaschinen wie Google und Nachschlagewerke wie Wikipedia in Erfahrung zu bringen ist, statt sich selbst diskursiv über Welt zu verständigen: Wem ist beispielsweise die Vergabe der Ranking-Plätze bei den Suchmaschinen im täglichen Umgang mit Google etc. wirklich jedes Mal präsent, wenn er die Suchfunktionalitäten nutzt? Wer kann begründen im Sinne anspruchsvollen Wissens, wie die Rangfolge zustande kommt? Wer entscheidet wie, welche Inhalte in Wikipedia dargestellt werden und wer ist redaktionell für die Qualität verantwortlich? Es wird also immer schwieriger, unter der Bedingung zunehmend medial vermittelter Realitäten jeweils diskursiv - im Sinne anspruchsvollen Wissens - begründen zu wollen oder zu können, wie man zu dieser oder jener Information und Überzeugung gelangt ist. Stattdessen ist nach jahrelanger Aufklärungsarbeit über die gesellschaftlichen Bedingungen und Wirkungen von Wissens- und Informationssystemen derzeit eher eine Art gesellschaftlicher Wiederverzauberung dieser Systeme zu beobachten, die in der Gefahr steht, der suggestiv-ästhetischen Wirkung graphischer Benutzungsoberflächen zu erliegen und die durch sie vermittelten Weltsichten für Welt' selbst zu halten. Verstärkt wird dieser Effekt durch die zunehmende gesellschaftliche Nutzung des Internets als zentrales Portal zum Erwerb und zur Verteilung von Wissen über 'Welt', das deren Wiederverzauberung noch sehr viel versteckter und subtiler werden und zugleich effektiver wirken läßt:

Authors

Languages

Types

Themes

Subjects

Classifications