Search (8119 results, page 405 of 406)

  1. Gömpel, R.; Altenhöner, R.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 71. IFLA-Generalkonferenz in Oslo, Norwegen : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2005) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 4304) [ClassicSimilarity], result of:
              0.014933716 = score(doc=4304,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 4304, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4304)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Enthält Berichte aus den Sektionen: (1) Bibliography Section; (2) Cataloguing Section (Sektion Katalogisierung) Deutsche Mitglieder im Ständigen Ausschuss der Sektion: Renate Gömpel (2005-2009; Die Deutsche Bibliothek) und Ulrike Junger (2003-2007; Staatsbibliothek zu Berlin) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. ... Die neuen internationalen Katalogisierungsprinzipien sollen die bisherigen Paris Principles ablösen. Sie sollen in gleicher Weise für die Formal- und Sacherschließung gelten und nicht nur für den einzelnen Katalog bestimmt sein, sondern auch für Daten in (globalen) Netzen zutreffen. Sie sehen die Verwendung von Normdaten vor und beruhen auf den IFLA-Modellen FRBR und FRAR, die die gemeinsame Nutzung von Daten unterstützen. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört die Fortsetzung der ISBD-Entwicklung zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u.a.: - die vollständige Veröffentlichung der Anonymous Classics: Für den Teil Afrika liegt inzwischen ein Entwurf vor. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber, um den mehrsprachigen Zugang zu bibliographischer Information zu fördern - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Die Liste der russischen Namen wurde inzwischen überarbeitet. Empfehlungen für die Organisation und Erschließung der rapide ansteigenden Zahl elektronischer Ressourcen zu entwickeln, ist ein anderes Ziel der Sektion. Darüber hinaus sollen die Information über die Aktivitäten der Sektion Katalogisierung verstärkt und neue Mitglieder zur Mitarbeit im Ständigen Ausschuss vor allem aus bisher noch unterrepräsentierten Regionen geworben werden. Der letzte Aufruf war erfolgreich und hat zu neuen Mitgliedern aus Asien geführt. Noch immer nicht vertreten sind afrikanische Kollegen - hier soll insbesondere im Vorfeld der IFLA-Konferenz 2007 in Durban Werbung gemacht werden.
  2. Seemann, M.: Schneller als die Bild (2005) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 4316) [ClassicSimilarity], result of:
              0.014933716 = score(doc=4316,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 4316, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4316)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Studieren Sie täglich Ihre Zeitung? Vielleicht blättern Sie auch einmal in der Woche in einem Nachrichtenmagazin wie Stern, Focus oder Spiegel. Doch mit Sicherheit lesen Sie sich niemals alle Artikel durch, sondern nur die für Sie interessanten. Der Rest wandert nebst Werbeeinlagen in den Müll. Auch sind selbst Tageszeitungen nicht sonderlich aktuell. Schließlich muss die geschriebene Nachricht noch von der Redaktion in die Druckpresse und im Papierformat zum Leser transportiert werden. Aktueller als die frischeste Tageszeitung sind die Nachrichten im Internet. Der Druck und derTransport zum Kunden entfällt hier, die Meldung wird direkt ins Online-Redaktionssystem geschrieben und veröffentlicht-fertig. Allerdings fällt es nicht eben leicht, im Nachrichtenangebot des Web den Überblick zu behalten. Und mehrmals täglich viele unübersichtliche Webseiten nach Neuigkeiten zu durchkämmen, ist mühsam und zeitraubend. Selbst spezialisierte Online-Hilfen wie Google News unter http://news, google.de, die bestimmte News-Portale ständig nach neuen Einträgen durchkämmen, helfen nicht bei der Suche nach speziellen oder ungewöhnlichen Themen. Außerdem bestehen hier keinerlei Auswahlmöglichkeiten bezüglich der Quellen. Mit Hilfe des Dateiformats RSS lassen sich die eben genannten Nachteile elegant umgehen. Näheres dazu erfahren Sie im Kasten "Verpackung für Nachrichten: RSS". Um Nachrichten in diesem Format sammeln, aufbereiten und anzeigen zu können, benötigen Sie ein Tool, einen so genannten RSS-Reader, zu Deutsch RSS-Leser. Er sammelt ständig die aktuellen Meldungen aus verschiedensten Quellen und wird somit zum Nachrichtenportal auf dem eigenen PC. Das Tolle daran: Die neue Infozentrale lässt sich auf Ihre persönlichen Interessen zuschneiden und versorgt Sie nur mit Nachrichten der von Ihnen ausgewählten Quellen. Alle Nachrichten im Griff RSS-Reader sind kleine Programme, mit denen Sie Nachrichtenkanäle abonnieren können. Das funktioniert, wenn Webseiten ihre neu eingespeisten Inhalte in einem speziellen Format anbieten. Diese so genannten RSS-Feeds, zu Deutsch: Einspeisungen im RSS-Format, sind Ihr Nachrichtenabo.
  3. Hosbach, W.: Suche: Nadel : Desktop-Suchmaschinen (2006) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 4730) [ClassicSimilarity], result of:
              0.014933716 = score(doc=4730,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 4730, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4730)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Komplett vermisst in allen Tools haben wir die Unterstützung von Access. Ein Sprecher von X1 beteuerte, das Tool verstehe Access bis zur Version 2. Das haben wir nicht nachgeprüft (nur Access 2003). Oft stellten wir Probleme mit Umlauten fest. Blinkx verzichtet komplett auf alles, was nicht Englisch ist. Früher gab es eine deutsche Version, und eine Sprecherin versicherte, es soll bald eine internationale folgen, die auch Deutsch beherrscht. Die vorliegende 3.5 ist hierzulande jedenfalls nicht zu verwenden. Copernic versteht keine Umlaute in HTML-Seiten, da diese als &xyz; vorliegen: K&uuml; statt Küche. Auch hier soll die nächste Version Abhilfe schaffen. In unserem letzten Test hatte Google ähnliche Probleme, das ist aber nicht mehr der Fall. Dafür filtert es HTML-Tags nicht richtig: z.B. Fe<b>tt<lb> findet es nicht als Fett sondern F ett. Der Anwender sollte sich genau klar machen und prüfen, in welchen Formaten seine Daten vorliegen. Das Suchtool sollte alle unterstützen. In den Index Nach der Installation stellt derAnwenderbei den meisten Tools ein, welche Ordner und Mail-Programme es in den Index einbeziehen soll. Dann beginnt der Indexer mit derArbeit, was je nach Größe einige Stunden dauern kann. Der fertige Index ist sozusagen eine Karte der Daten. Erenthält alle suchbaren Begriffe und den zugehörigen Dateinamen, wie ein Register der Festplatte. In diesem findet sich ein Suchbegriff viel schneller, als wenn das Tool jede Datei öffnen müsste. Google macht es sich besonders einfach: Es bricht die Indizierung bei etwa lOOk ab. Das konnten wir bei mehreren Dateiformaten (RTF, DOC, HTML) feststellen. Die erste Hälfte ist suchbar, die zweite nicht. Dieses Verhalten macht im Web sicher Sinn, den die ersten Seiten eines Dokuments geben Aufschluss über den Inhalt, nach dem der Anwender später sucht. Auf seinem Desktop sucht der An wender oft aber anders. Er hat eine ganz bestimmte Info, deren Ort erfin den möchte. Dazu müssen die Dokumente im Indexvollständig abgebildet sein. Google gab keine Stellungnahme dazu ab.
  4. Sixtus, M.: Falsche Türen : Google kämpft gegen Tricks, mit denen sich Webseiten in den Suchlisten nach oben drängeln - und bestraft BMW (2006) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 4917) [ClassicSimilarity], result of:
              0.014933716 = score(doc=4917,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 4917, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4917)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Vgl. auch: Matt Cutt: www.mattcuts.com/blog, Philipp Lenssen: blog.outer-court.com, barrierefreies Web: www.einfach-fuer-alle.de
  5. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 5134) [ClassicSimilarity], result of:
              0.014933716 = score(doc=5134,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 5134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5134)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
  6. Hermes, H.-J.: Aus den Arbeitsgruppen AG BIB - Bibliotheken / AG DK - Dezimalklassifikationen (2007) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 5145) [ClassicSimilarity], result of:
              0.014933716 = score(doc=5145,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 5145, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5145)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Nadine Höchstötter, Karlsruhe, berichtete über den letzten Stand ihrer Forschungen zum Suchverhalten in Suchmaschinen. Anhand von Datensätzen in Lycos lassen sich Muster von Suchanfragen ermitteln, aus denen Trends abgeleitet werden können. Es kann dabei zwischen vier grundsätzlichen Klassen unterschieden werden: "Eintagsfliegen" treten im Erhebungszeitraum nur einmal auf, "Dauerbrenner" hingegen während der Erhebungsperiode nahezu in jedem definierten Zeitintervall. Kleinere Ausschläge, bei denen bestimmte Suchbegriffe seltener als 100 Mal nachgefragt wurden, können weggelassen werden, um diese Muster schärfer darzustellen. Das abgeschnittene Volumen entspricht einem weißen Rauschen. Weiterhin sind Events und Impulse interessant. "Events" treten bei Ereignissen auf, die vorher bekannt und durch einen gleichmäßigen Anstieg mit einem senkrechten Abfall am Tag des Events charakterisiert sind. Bei "Impulsen" verhält sich das Muster genau andersherum. Eine Kombination der verschiedenen Klassen tritt beispielsweise bei aufkommenden Trends auf, die durch Mund-zu-Mund-Propaganda und zum Teil durch Werbemaßnahmen oder andere öffentlichen Medien verbreitet werden. Weiteres: (Diss. 2007). Untersuchung des Suchverhaltens im Web - Interaktion von Intemetnutzem mit Suchmaschinen, ISBN 3-8300-2725-7.
  7. a cataloger's primer : Metadata (2005) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 133) [ClassicSimilarity], result of:
              0.014933716 = score(doc=133,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=133)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Part II consists of five papers on specific metadata standards and applications. Anita Coleman presents an element-by-element description of how to create Dublin Core metadata for Web resources to be included in a library catalog, using principles inspired by cataloging practice, in her paper "From Cataloging to Metadata: Dublin Core Records for the Library Catalog." The next three papers provide especially excellent introductory overviews of three diverse types of metadata-related standards: "Metadata Standards for Archival Control: An Introduction to EAD and EAC" by Alexander C. Thurman, "Introduction to XML" by Patrick Yott, and "METS: the Metadata Encoding and Transmission Standard" by Linda Cantara. Finally, Michael Chopey offers a superb and most useful overview of "Planning and Implementing a Metadata-Driven Digital Repository." Although all of the articles in this book contain interesting, often illuminating, and potentially useful information, not all serve equally well as introductory material for working catalogers not already familiar with metadata. It would be difficult to consider this volume, taken as a whole, as truly a "primer" for catalog librarians, as the subtitle implies. The content of the articles is too much a mix of introductory essays and original research, some of it at a relatively more advanced level. The collection does not approach the topic in the kind of coherent, systematic, or comprehensive way that would be necessary for a true "primer" or introductory textbook. While several of the papers would be quite appropriate for a primer, such a text would need to include, among other things, coverage of other metadata schemes and protocols such as TEI, VRA, and OAI, which are missing here. That having been said, however, Dr. Smiraglia's excellent introduction to the volume itself serves as a kind of concise, well-written "mini-primer" for catalogers new to metadata. It succinctly covers definitions of metadata, basic concepts, content designation and markup languages, metadata for resource description, including short overviews of TEI, DC, EAD, and AACR2/MARC21, and introduces the papers included in the book. In the conclusion to this essay, Dr. Smiraglia says about the book: "In the end the contents go beyond the definition of primer as `introductory textbook.' But the authors have collectively compiled a thought-provoking volume about the uses of metadata" (p. 15). This is a fair assessment of the work taken as a whole. In this reviewer's opinion, there is to date no single introductory textbook on metadata that is fully satisfactory for both working catalogers and for library and information science (LIS) students who may or may not have had exposure to cataloging. But there are a handful of excellent books that serve different aspects of that function. These include the following recent publications:
  8. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 465) [ClassicSimilarity], result of:
              0.014933716 = score(doc=465,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 465, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=465)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    kim - Kompetenzzentrum Interoperable Metadaten Projektziel ist der Aufbau eines Kompetenzzentrums Interoperable Metadaten (KIM), das im deutschsprachigen Raum den Ausbau der Kompetenzen für die Themen interoperable Metadaten, Metadatenaustausch und Formate fördern soll. Strukturierte Beschreibungen (Metadaten) verschiedener Datenbestände werden als "interoperabel" bezeichnet, wenn in ihnen über einheitliche Suchverfahren recherchiert oder sie sinnvoll in die Datenverwaltung integriert werden können. Interoperabilität wird erreicht, indem man sich in kontrollierten institutionellen Zusammenhängen an technische Spezifikationen hält. Eine zentrale Aufgabe des "Kompetenzzentrum Interoperable Metadaten" als DCMI-Affiliate in Deutschland (nach Projektende im deutschsprachigen Raum mit Partnern aus Österreich und der Schweiz) besteht dabei in der Bildung einer Kernarbeitsgruppe mit weiteren spezifischen Arbeitsgruppen, die durch die Begutachtung bereits existierender Anwendungsprofile ein gemeinsames Verständnis für "good practice" in der Anwendung sowohl des Dublin-Core-Modells als auch des Semantic-Web-Modells entwickelt. Dieses Verständnis bildet die Grundlage für die Entwicklung von Zertifizierungsverfahren, Ausbildungsangeboten und Beratungsdiensten im Bereich interoperable Metadaten.
  9. ¬La interdisciplinariedad y la transdisciplinariedad en la organización del conocimiento científico : actas del VIII Congreso ISKO-España, León, 18, 19 y 20 de Abril de 2007 : Interdisciplinarity and transdisciplinarity in the organization of scientific knowledge (2007) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 1150) [ClassicSimilarity], result of:
              0.014933716 = score(doc=1150,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 1150, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1150)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Benavides, C., Aláiz, H., Alfonso, J., Alonso, Á.: An ontology for control engineering; Ferreira de Oliveira, M.F., Schiessl, M.: Estimate of the distance between areas of an organization using the concept of interlinguistic distance; Lara, M.G.L. de.: Ciencias del lenguaje, terminología y ciencia de la información: relaciones interdisciplinarias y transdisciplinariedad; Moreiro González, J.A.: Evolución paralela de los lenguajes documentales y la terminología; Triska, R.: Artificial intelligence, classification theory and the uncertainty reduction process; Casari Boccato, V.R., Spotti Lopes Fujita, M.: Aproximación cualitativa-cognitiva como método de evaluación de lenguajes documentales: una técnica de protocolo verbal; De Brito Neves, D.A., De Albuquerque, M.E.B.C.: Biblioteca digital un convergencia multidisciplinar; Miranda, A., Simeão, E.: Aspectos interdisciplinarios y tecnológicos de la autoría colectiva e individual; San Segundo, R.: Incidencia de aspectos culturales y siciales en la organización del conocimento transdisciplinar; Barber, E., et al.: Los catálogos en línea de acceso público disponibles en entorno web de las bibliotecas universitarias y especializadas en Argentina y Brasil: diagnóstico de situación; Forsman, M.: Diffusion of a new concept: the case of social capital; Pajor, E.: Una aplicación de topic map que puede ser un modelo posible; Moreiro González, J.A., Franco Álvarez, G., Garcia Martul, D.: Un vocabulario controlado para una hemerotecá: posibilidades y características de los topicsets; Cavalcanti de Miranda, M.L.: Organización y representación del conocimiento: fundamentos teóricos y metológicos para la recuperación de la información en entornos virtuales; Moacir Francelin, M.: Espacios de significación y representación del conocimiento: un análisis sobre teorias y métodos de organización de conceptos en ciencia de la información; Spiteri, L.: The structure and form of folksonomy tags: the road to the public library catalogue;
  10. Crane, G.; Jones, A.: Text, information, knowledge and the evolving record of humanity (2006) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 1182) [ClassicSimilarity], result of:
              0.014933716 = score(doc=1182,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 1182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1182)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Consider a sentence such as "the current price of tea in China is 35 cents per pound." In a library with millions of books we might find many statements of the above form that we could capture today with relatively simple rules: rather than pursuing every variation of a statement, programs can wait, like predators at a water hole, for their informational prey to reappear in a standard linguistic pattern. We can make inferences from sentences such as "NAME1 born at NAME2 in DATE" that NAME more likely than not represents a person and NAME a place and then convert the statement into a proposition about a person born at a given place and time. The changing price of tea in China, pedestrian birth and death dates, or other basic statements may not be truth and beauty in the Phaedrus, but a digital library that could plot the prices of various commodities in different markets over time, plot the various lifetimes of individuals, or extract and classify many events would be very useful. Services such as the Syllabus Finder1 and H-Bot2 (which Dan Cohen describes elsewhere in this issue of D-Lib) represent examples of information extraction already in use. H-Bot, in particular, builds on our evolving ability to extract information from very large corpora such as the billions of web pages available through the Google API. Aside from identifying higher order statements, however, users also want to search and browse named entities: they want to read about "C. P. E. Bach" rather than his father "Johann Sebastian" or about "Cambridge, Maryland", without hearing about "Cambridge, Massachusetts", Cambridge in the UK or any of the other Cambridges scattered around the world. Named entity identification is a well-established area with an ongoing literature. The Natural Language Processing Research Group at the University of Sheffield has developed its open source Generalized Architecture for Text Engineering (GATE) for years, while IBM's Unstructured Information Analysis and Search (UIMA) is "available as open source software to provide a common foundation for industry and academia." Powerful tools are thus freely available and more demanding users can draw upon published literature to develop their own systems. Major search engines such as Google and Yahoo also integrate increasingly sophisticated tools to categorize and identify places. The software resources are rich and expanding. The reference works on which these systems depend, however, are ill-suited for historical analysis. First, simple gazetteers and similar authority lists quickly grow too big for useful information extraction. They provide us with potential entities against which to match textual references, but existing electronic reference works assume that human readers can use their knowledge of geography and of the immediate context to pick the right Boston from the Bostons in the Getty Thesaurus of Geographic Names (TGN), but, with the crucial exception of geographic location, the TGN records do not provide any machine readable clues: we cannot tell which Bostons are large or small. If we are analyzing a document published in 1818, we cannot filter out those places that did not yet exist or that had different names: "Jefferson Davis" is not the name of a parish in Louisiana (tgn,2000880) or a county in Mississippi (tgn,2001118) until after the Civil War.
  11. Hosbach, W.: Google vs. Wiki : Neue Konkurrenz (2008) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 1797) [ClassicSimilarity], result of:
              0.014933716 = score(doc=1797,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 1797, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1797)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Der Autorenkasten zeigt die Berufsbezeichnung der Autorin, weitere Artikel von ihr, zum Thema passende Artikel und eben die Google-Werbung. Außerdem hat sich die Autorin dafür entschieden, den Artikel unter die Creative-Commons-Lizenz (CCL) zu stellen, so dass andere Autoren das Material unter bestimmten Einschränkungen, zum Beispiel die Nennung des Urhebers, weiter verwenden können. Ein Knot-Artikel könnte so auch bei Wikipedia landen. Ob die CCL eine Google-Vorgabe für alle Texte im Lexikon wird, ist noch nicht bekannt. Die Suche Die Wiki-Konkurrenz zu Google heißt Wikia-Search. Der Namensbestandteil Wikia verrät den Urheber des Projekts, denn es handelt sich nicht um die gemeinnützige WikimediaFoundation, die Betreiberin von Wikipedia, sondern um Wikia Inc., ein gewinnorientiertes Unternehmen des Wiki-Gründers Jimmy Wales. Die Anwender, die die Suchergebnisse von Wikia-Search verbessern, arbeiten also auch unbezahlt am Gewinn des Firmengründers mit. Seit YouTube ein weit verbreitetes Web-2.0-Phänomen. Die Wikia-Suche soll sich in erster Linie durch Offenheit zu Google unterscheiden. Das heißt, der Such- und Ranking-Algorithmus ist Open Source. Jeder kann wissen, warum seine Seite an welcher Position landet. Außerdem soll es Programmierschnittstellen (APIs) geben. Das ist nicht nur für die ehrlichen Webmaster gut, sondern auch für Spammer, denen Wikia die Manipulation erleichtert. Wie der Betreiber dagegen vorgehen will, dazu gibt es noch keine Aussagen. Eine gewisse Kontrolle werden die Anwender ausüben, die die Ergebnisse bewerten können. So wandert Spam schnell nach unten und die guten Resultate nach oben.
  12. Beuth, P.: Sternzeichen Google (2008) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 2298) [ClassicSimilarity], result of:
              0.014933716 = score(doc=2298,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 2298, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2298)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Eltern sollen von Kindern lernen Für Gasser ist das eine gute Nachricht. Denn je mehr das Internet zur wichtigsten Informationsquelle wird, desto wichtiger wird es, mit diesen Informationen umgehen zu können. Dabei machen die Digital Natives insgesamt eine gute Figur, sei es bei der langsam zunehmenden Sensibilisierung für den Datenschutz oder der überraschend gut ausgeprägten Fähigkeit, Informationen auf ihren Wahrheitsgehalt überprüfen zu können: "Je mehr man sich im Netz bewegt, desto größer ist interessanterweise die Kompetenz im Umgang mit dem Medium", fasst Gasser entsprechende Studien zusammen. Wenn es etwa darum geht, die Qualität eines Wikipedia-Artikels zu überprüfen, nutzen diejenigen, die länger im Netz sind, diese Zeit auch, um die Quellen des Artikels zu überprüfen und zu vergleichen. Dass viele Menschen künftig praktisch rund um die Uhr online sein werden, ist Gasser und Palfrey bewusst. Schon jetzt nutzen zehn Millionen Deutsche das mobile Web, in Japan so gut wie jeder. Die Forscher fordern deshalb Eltern und Lehrer auf, "ihre Kenntnis der Digitaltechnik zu verbessern" - dabei könne ihnen niemand so gut helfen wie die Digital Natives selbst. Erwachsene bräuchten unbedingt "ein eigenes Verständnis davon, wie diese Technologie funktioniert, die unsere Kids tagein, tagaus nutzen." Vor allem diejenigen, die immer noch diese rückständigen, langsamen E-Mails schreiben."
  13. Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 2317) [ClassicSimilarity], result of:
              0.014933716 = score(doc=2317,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 2317, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2317)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Deutsche Nationalbibliothek) Die Sektion, die sich als Forum für den internationalen Austausch über Methoden der Inhaltserschließung und die Bedeutung des sachlichen Zugangs zu Dokumenten und Wissen versteht, wartete in Quebec mit einem interessanten Vortragprogramm auf. Drei Präsentationen näherten sich dem Thema "Classification and indexing without language borders" von unterschiedlichen Seiten. Anila Angjeli von der Bibliotheque nationale de France (BnF) präsentierte Arbeiten aus dem Projekt STITCH", das sich mit semantischen Suchen in unterschiedlich erschlossenen Beständen von Kulturerbeinstitutionen beschäftigt. Die verwendeten Thesauri und Klassifikationen wurden mittels SKOS in ein vergleichbares Format überführt und stehen so als Semantic-Web-Anwendung zur Recherche bereit. Die Funktionsweise erläuterte Anila Angjeli sehr bildreich durch Beispiel-suchen nach mittelalterlichen Handschriften der BnF und der Königlichen Bibliothek der Niederlande. Vivien Petras vom GESIS Informationszentrum Sozialwissenschaften, Bonn, sprach über die Vielzahl der intellektuell erstellten Crosskonkordanzen zwischen Thesauri in den Sozialwissenschaften. Sie stellte dabei die Evaluierung der KOMOHE-Projektergebnisse vor und konnte die Verbesserung der Suchergebnisse anschaulich machen, die man durch Hinzuziehen der Konkordanzen in der Recherche über heterogen erschlossene Bestände erreicht. Schließlich präsentierte Michael Kreyche von der Kent State University, Ohio/USA, seinen eindrucksvollen jahrelangen Einsatz für die Zugänglichkeit englisch-spanischer Schlagwörter. Im Projekt Icsh-es.org gelang es, viele Vorarbeiten von amerikanischen und spanischen Bibliotheken zusammenzutragen, um eine Datenbank spanischer Entsprechungen der Library of Congress Subject Headings aufzubauen. Diese soll Indexierern helfen und natürlich den vielen spanisch-sprachigen Bibliotheksbenutzern in den USA zugute kommen. Spanisch ist nicht nur eine der meistgesprochenen Sprachen der Welt, sondern aufgrund der zahlreichen Einwanderer in die USA für die Bibliotheksarbeit von großer Wichtigkeit.
  14. Ansorge, K.: Das was 2007 (2007) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 2405) [ClassicSimilarity], result of:
              0.014933716 = score(doc=2405,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 2405, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2405)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    "Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
  15. Culture and identity in knowledge organization : Proceedings of the Tenth International ISKO Conference 5-8 August 2008, Montreal, Canada (2008) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 2494) [ClassicSimilarity], result of:
              0.014933716 = score(doc=2494,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 2494, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2494)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    EPISTEMOLOGICAL FOUNDATIONS OF KNOWLEDGE ORGANIZATION H. Peter Ohly. Knowledge Organization Pro and Retrospective. Judith Simon. Knowledge and Trust in Epistemology and Social Software/Knowledge Technologies. - D. Grant Campbell. Derrida, Logocentrism, and the Concept of Warrant on the Semantic Web. - Jian Qin. Controlled Semantics Versus Social Semantics: An Epistemological Analysis. - Hope A. Olson. Wind and Rain and Dark of Night: Classification in Scientific Discourse Communities. - Thomas M. Dousa. Empirical Observation, Rational Structures, and Pragmatist Aims: Epistemology and Method in Julius Otto Kaiser's Theory of Systematic Indexing. - Richard P. Smiraglia. Noesis: Perception and Every Day Classification. Birger Hjorland. Deliberate Bias in Knowledge Organization? Joseph T. Tennis and Elin K. Jacob. Toward a Theory of Structure in Information Organization Frameworks. - Jack Andersen. Knowledge Organization as a Cultural Form: From Knowledge Organization to Knowledge Design. - Hur-Li Lee. Origins of the Main Classes in the First Chinese Bibliographie Classification. NON-TEXTUAL MATERIALS Abby Goodrum, Ellen Hibbard, Deborah Fels and Kathryn Woodcock. The Creation of Keysigns American Sign Language Metadata. - Ulrika Kjellman. Visual Knowledge Organization: Towards an International Standard or a Local Institutional Practice?
  16. Rösch, H.: Academic libraries und cyberinfrastructure in den USA : das System wissenschaftlicher Kommunikation zu Beginn des 21. Jahrhunderts (2008) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 3074) [ClassicSimilarity], result of:
              0.014933716 = score(doc=3074,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 3074, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3074)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Aber auch die Library of Congress, so zitiert Rösch, hat im Jahr 2000 dargelegt, dass heute keine einzelne Bibliothek mehr in der Lage ist, dass Wissenschaftssystem komplett mit der benötigten Information zu versorgen. Nur ein funktional differenziertes System kann dies leisten. Ansätze dazu sieht Rösch vor allem in Formen arbeitsteiliger Bibliothekskooperation wie Global Resources Network, JSTOR, Portico, CLOCKSS oder SPARC und bescheinigt den amerikanischen Verbänden, dass sie mit Energie und Erfolg den Wandel zum funktional differenzierten System befördern. Ausführlich beschreibt der Autor die Anforderungen, die seitens der Wissenschaft an ihre Informationslogistik gestellt werden. Hier behandelt er gründlich den »Atkins-Report« von 2003 und die nachfolgenden Studien zur Cyberinfrastructure wie den »Cultural Commonwealth Report«. Bemerkenswert ist, mit welcher Klarheit bei aller Knappheit der Autor diese Entwicklungen kennzeichnet und analytisch einordnet. Er hält folgende Merkmale dieses Umbruchs in der wissenschaftlichen Kommunikation fest: - Primat der Online-Quellen und Beschleunigung - Interdisziplinarität, Kollaboration, Internationalisierung - Mengenwachstum und Informationsüberflutung - wachsende Bedeutung informeller Kommunikationsformen und nachlassende Unterscheidbarkeit von institutionell formalisierten Kommunikationsformen (Strukturverlust der Kommunikation) - Nutzung von Datenbank- und Retrievaltechnologie - Data-Mining, Aufwertung und exponentielle Vermehrung wissenschaftlicher Primärdaten - Selbst-Archivierung und Open Access - Multimedialität. Wertvoll in diesem Zusammenhang ist, dass Rösch die Tatsache diskutiert, dass Open-Access-Publikationen bei Berufungen von Professoren teilweise einfach ignoriert werden und wie sie mittels informetrischer Ansätze und Web-2.0-Funktionalitäten in formalisierte Bewertungen eingehen können.
  17. Annan, K.A.: ¬Die Vereinten Nationen wollen das Internet nicht kontrollieren (2005) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 3179) [ClassicSimilarity], result of:
              0.014933716 = score(doc=3179,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 3179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3179)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Den Vereinigten Staaten gebührt unser Dank dafür, dass sie das Internet entwickelt und es der Welt verfügbar gemacht haben. Aus historischen Gründen besitzen die Vereinten Nationen die höchste Autorität über einige der wichtigsten Web-Ressourcen und viele sagen, dass diese Autorität künftig mit der internationalen Gemeinschaft geteilt werden sollte. Die USA, die ihre Kontrollaufgaben bisher fair und ehrenhaft unternommen haben, erkennen selbst an, dass andere. Regierungen legitime Bedenken haben. Es wird auch anerkannt, dass in diesem Bereich mehr internationale Aufgabenteilung nötig ist. Es geht dabei um die Zukunft, wenn das Wachstum des Internets vor allem in den Entwicklungsländern dramatisch zunehmen wird. Zurzeit erleben wir den Beginn eines Dialogs zwischen zwei verschiedenen Kulturen: die Gemeinschaft der Internetnutzer mit ihren informellen und basisorientierten Entscheidungsprozessen und die formalere, strukturiertere Welt der Regierungen und internationalen Organisationen. Das Internet ist für alle Volkswirtschaften und Verwaltun- gen von so großer Bedeutung, dass es sehr naiv wäre zu glauben, dass Regierungen damit nicht irgendein Interesse verfolgen würden. Sie müssen in der Lage sein, ihre Internetpolitik richtig gestalten und sie mit der Gemeinschaft der Nutzer koordinieren zu können. Aber Regierungen alleine können diese Regeln nicht setzen. Sie müssen lernen, mit nichtstaatlichen Partnern zusamenzuarbeiten. Sie sind es, die das Internet aufgebaut und zudem gemacht haben, was es heute ist. Sie werden auch treibende Kraft sein, wenn es um die künftige Expansion und Innovation geht.
  18. Stöcklin, N.: Wikipedia clever nutzen : in Schule und Beruf (2010) 0.00
    0.0024889526 = product of:
      0.007466858 = sum of:
        0.007466858 = product of:
          0.014933716 = sum of:
            0.014933716 = weight(_text_:web in 4531) [ClassicSimilarity], result of:
              0.014933716 = score(doc=4531,freq=2.0), product of:
                0.1656677 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.050763648 = queryNorm
                0.09014259 = fieldWeight in 4531, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4531)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Spätestens jetzt sollten die Skeptiker, auch in den Reihen der Wissenschaftler/innen und Bibliothekar/innen, nachdenklich werden und ihre Vorbehalte gegen Wikipedia überprüfen. Dabei kann das Buch von Nado Stöcklin, einem Mitarbeiter an der Pädagogischen Hochschule Bern, sehr hilfreich sein: Mich haben seine Ausführungen und Argumente überzeugt. Doch nicht nur für Zweifler ist die Lektüre dieses Buches zu empfehlen. Es gibt einen guten Überblick über Wikipedia, es ist theoretisch fundiert, praxisbezogen, leicht verständlich, dabei spannend und angenehm zu lesen - dies auch, weil jedem Kapitel ein fiktiver Dialog vorangestellt ist, in dem aus einer konkreten Situation heraus an das Thema herangeführt wird. Im ersten Kapitel geht es um die Vorteile von Wikipedia in historischer Perspektive. Wissen übersichtlich bereit zu stellen, war das Ziel vieler unterschiedlicher Bemühungen in der Antike und in mittelalterlichen Klöstern, in Bibliotheken und mit Hilfe von Enzyklopädien seit der Aufklärung: Im Vergleich dazu ist Wikipedia für alle zugänglich, jederzeit, an jedem Ort. Im zweiten Kapitel werden weitere Mehrwerte von Wikipedia festgemacht: in der Quantität der verfügbaren Informationen, in ihrer Aktualität und im demokratischen Prozess ihrer Erstellung und Redaktion. Denn eine Bedingung für den Erfolg von Wikipedia ist sicher die Software Wiki bzw. Meta-Wiki, die es erlaubt, dass Nutzer Inhalte nicht nur lesen, sondern auch selbst verändern können, wobei frühere Versionen archiviert und jederzeit wieder reaktiviert werden können. Diese Prinzipien des Web-2.0 hat Wikipedia allerdings mit vielen anderen Wiki-Projekten gemeinsam, denen diese Berühmtheit aber versagt geblieben ist - einmal abgesehen von WikiLeaks, das vor Wochen die Berichterstattung dominierte. Das wirkliche Erfolgsgeheimnis von Wikipedia liegt vielmehr in ihrer innovativen Organisation, die auf den Prinzipien Demokratie und Selbstorganisation beruht. Die Vorgaben der Gründer von Wikipedia -Jimmy Wales, ein Börsenmakler, und Larry Sanger, ein Philosophie-Dozent - waren minimalistisch: Die Beiträge sollten neutral sein, objektiv, wenn notwendig pluralistisch, nicht dogmatisch, und vor allem überprüfbar - also Qualitätskriterien, wie sie auch für wissenschaftliches Wissen gelten. Im Unterschied zum wissenschaftlichen Publikationswesen, in dem Urheberrecht und Verwertungsrechte bekanntlich restriktiv geregelt sind, geht Wikipedia aber einen anderen Weg. Alle Beiträge stehen unter der Lizenz des Creative Commons by-sa, d.h. jeder darf Inhalte kopieren und verwerten, auch kommerziell, wenn er die Autoren angibt ("by") und, sofern er sie ändert, unter dieselbe Lizenz stellt ("sa" = "share alike").
  19. Hassemer, W.: Haltet den geborenen Dieb! (2010) 0.00
    0.0022925914 = product of:
      0.006877774 = sum of:
        0.006877774 = product of:
          0.013755548 = sum of:
            0.013755548 = weight(_text_:22 in 173) [ClassicSimilarity], result of:
              0.013755548 = score(doc=173,freq=2.0), product of:
                0.17776565 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050763648 = queryNorm
                0.07738023 = fieldWeight in 173, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=173)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Vgl. die Erwiderungs- und Fortsetzungsbeiträge: Roth, G., G. Merkel: Haltet den Richter!: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 26.06.2010, S.xx. Walter, M.: Unzulässige Überinterpretation: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 05.07.2010, S.xx. Janich, P.: Stillschweigende Hirngespinste: Die FR-Debatte zur Willensfreiheit. In: Frankfurter Rundschau. Nr.158 vom 12.07.2010, S.20-21. Lüderssen, K.: Wer determiniert die Hirnforscher?: Was ist Willensfreiheit (4). [Interview]. In: Frankfurter Rundschau. Nr.164 vom 19.07.2010, S.20-21. Pauen, M.: Das Schuldprinzip antasten, ohne es abzuschaffen: Was ist Willensfreiheit (5) oder: Wer ist verantwortlich für die Abschaffung von Verantwortung?. In: Frankfurter Rundschau. Nr.170 vom 26.07.2010, S.22-23. Vgl.: http://www.faz.net/s/RubCF3AEB154CE64960822FA5429A182360/Doc~E384DC40FFB99469F8C26751F979BFCBF~ATpl~Ecommon~Scontent~Afor~Eprint.html.
  20. Hilberer, T.: Aufwand vs. Nutzen : Wie sollen deutsche wissenschaftliche Bibliotheken künftig katalogisieren? (2003) 0.00
    0.0022925914 = product of:
      0.006877774 = sum of:
        0.006877774 = product of:
          0.013755548 = sum of:
            0.013755548 = weight(_text_:22 in 1733) [ClassicSimilarity], result of:
              0.013755548 = score(doc=1733,freq=2.0), product of:
                0.17776565 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050763648 = queryNorm
                0.07738023 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2003 12:13:13

Languages

Types

  • a 6650
  • m 832
  • el 575
  • s 337
  • x 107
  • b 43
  • i 42
  • r 42
  • n 16
  • p 10
  • ? 9
  • d 3
  • h 2
  • u 2
  • z 2
  • A 1
  • EL 1
  • au 1
  • More… Less…

Themes

Subjects

Classifications