Search (2450 results, page 122 of 123)

  • × year_i:[2000 TO 2010}
  1. a cataloger's primer : Metadata (2005) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 133) [ClassicSimilarity], result of:
              0.012300321 = score(doc=133,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=133)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Part II consists of five papers on specific metadata standards and applications. Anita Coleman presents an element-by-element description of how to create Dublin Core metadata for Web resources to be included in a library catalog, using principles inspired by cataloging practice, in her paper "From Cataloging to Metadata: Dublin Core Records for the Library Catalog." The next three papers provide especially excellent introductory overviews of three diverse types of metadata-related standards: "Metadata Standards for Archival Control: An Introduction to EAD and EAC" by Alexander C. Thurman, "Introduction to XML" by Patrick Yott, and "METS: the Metadata Encoding and Transmission Standard" by Linda Cantara. Finally, Michael Chopey offers a superb and most useful overview of "Planning and Implementing a Metadata-Driven Digital Repository." Although all of the articles in this book contain interesting, often illuminating, and potentially useful information, not all serve equally well as introductory material for working catalogers not already familiar with metadata. It would be difficult to consider this volume, taken as a whole, as truly a "primer" for catalog librarians, as the subtitle implies. The content of the articles is too much a mix of introductory essays and original research, some of it at a relatively more advanced level. The collection does not approach the topic in the kind of coherent, systematic, or comprehensive way that would be necessary for a true "primer" or introductory textbook. While several of the papers would be quite appropriate for a primer, such a text would need to include, among other things, coverage of other metadata schemes and protocols such as TEI, VRA, and OAI, which are missing here. That having been said, however, Dr. Smiraglia's excellent introduction to the volume itself serves as a kind of concise, well-written "mini-primer" for catalogers new to metadata. It succinctly covers definitions of metadata, basic concepts, content designation and markup languages, metadata for resource description, including short overviews of TEI, DC, EAD, and AACR2/MARC21, and introduces the papers included in the book. In the conclusion to this essay, Dr. Smiraglia says about the book: "In the end the contents go beyond the definition of primer as `introductory textbook.' But the authors have collectively compiled a thought-provoking volume about the uses of metadata" (p. 15). This is a fair assessment of the work taken as a whole. In this reviewer's opinion, there is to date no single introductory textbook on metadata that is fully satisfactory for both working catalogers and for library and information science (LIS) students who may or may not have had exposure to cataloging. But there are a handful of excellent books that serve different aspects of that function. These include the following recent publications:
  2. Lischka, K.: 128 Zeichen für die Welt : Vor 40 Jahren schrieben Fachleute das Alphabet des Computers - und schufen damit dem ASCII-Standard (2003) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 391) [ClassicSimilarity], result of:
              0.012300321 = score(doc=391,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 391, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=391)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Nach 40 Jahren lösen neue Konventionen ASCII langsam ab. Auf einer höheren Ebene gibt es Standards wie XML oder RDF Dabei geht es nicht nur darum, Zeichen einheitlich darzustellen, sondern dasselbe auch für die Struktur eines beliebigen Dokumententyps zu erreichen. Auch die bloße Kodierung von Zeichen übernimmt mehr und mehr ein ASCII-Nachfolger: Unicode. Diese Basis für neue Standards wie XML existiert seit 1991. Die Vereinheitlichungs-Methode ist eine andere als bei ASCII: Alle Schriftzeichen der Welt sollen in einem einzigen 16-Bit-Zeichensatz kodiert werden, nicht mehr in vielen einzelnen wie bei ASCII. Industriegrößen wie Apple, HP, IBM, Microsoft und viele andere mehr unterstützen diesen Standard, die aktuelle Version 3.1 enthält 94140 unterschiedliche Zeichen - auch aus Schriften wie Cherokee oder Katakana. So können auch innerhalb eines Dokuments verschiedenste Sprachen und Schriften gemischt werden, zudem unterstützt jede Unicode-kompatible Software . automatisch such seltene Sprachen, die es sonst mangels Marktmacht schwer hätten, überhaupt die Aufmerksamkeit großer Software-Konzerne zu bekommen. Uni! September fälligen Version 4.0 einen großen Teil >der heute noch gebräuchlichen Sprachen abdecken. Auch wenn der technische Ansatz ein anderer als bei ASCII ist, folgt Unicode in einem Punkt Bob Bemers ursprünglicher Idee: "Wir sind mit ASCII in eine ganz andere Richtung als Esperanto gegangen. Statt allen eine neue Sprache aufzuzwingen, gab ASCII allen Nutzern auf der Welt die Möglichkeit, ihre eigene Schrift weiter zu nutzen." Das ist der sprachphilosophische Grund für den Erfolg von ASCII. Es gibt aber auch den technologiephilosophischen: ASCII war ein offener Standard. Bob Bemer sieht darin den wesentlichen Grund für den Erfolg: "Es haben jene Dinge überlebt, die nie patentiert wurden und so ständig verbessert und zu neuen Projekten verwandelt werden konnten." Neben Technikern schätzen auch Künstler ASCII längst. Sie fasziniert die Offenheit und Schlichtheit der ursprünglich 128 Zeichen seit Jahren. Einer der etablierten Netzkünstler, die seit langem mit ASCII arbeiten, ist der New Yorker Andy C. Deck. Er beschreibt seine Begeisterung für nackte, formatlose Zeichen so: "In einer Medienumwelt, die so tief greifend mit Bildern zugestopft ist, hat der Künstler als Bilderproduzent ein Publikum vor sich, das bereits an einer gestörten Wahrnehmungsverteilung leidet." Hier scheint es ASCII ähnlich zu ergehen wie einst der lateinischen Sprache. Seit dem zweiten Jahrhundert berauschten sich Menschen an der Schönheit der Sprache Ciceros - doch abgesehen von einigen neuen Begriffen entwickelte sich Latein nicht mehr weiter. Aber lateinische Einflüsse leben in romanischen Sprachen fort. Genauso geht es auch ASCII: Der Standard verschwindet nicht - er ist ein Bestandteil von Unicode
  3. Dueck, G.: Supramanie : vom Pflichtmenschen zum Score man (2006) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 657) [ClassicSimilarity], result of:
              0.012300321 = score(doc=657,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 657, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=657)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. 1. Aufl. in: Spektrum der Wissenschaft (C. Pöppe): "Die herkömmliche Auffassung des menschlichen Arbeitslebens "erfährt in diesen Jahren eine Revolution". Die Arbeitswissenschaftler haben erkannt, dass der Mensch die klassische Forderung nach Disziplin und Pflichttreue zwar erfüllen kann, aber nur durch Unterdrückung seines eigenen Willens und seiner Begierden. Einen wesentlichen Teil seiner Energie setzt er also nicht für die Arbeit ein. Kann man diese Energien mobilisieren? "Lässt sich Gier oder Siegeswille in Arbeit verwandeln?" Ja - und zwar im Prinzip ganz einfach. Man stelle dem Menschen sein Gehalt nicht dafür in Aussicht, dass er tut, was ihm gesagt wird, sondern dafür, dass er auf irgendeiner Leistungsskala möglichst viele Punkte erreicht. Das klingt einleuchtend. Nicht Vernunft noch Intuition, sondern weit gehend unbewusste Triebe und Ängste bestimmen vorrangig das Verhalten des Menschen - Gunter Dueck, Mathematiker und Manager bei IBM, hat das in seinem letzten Buch "Omnisophie" (Spektrum der Wissenschaft 11/2003, S. 88) ausgeführt, indem er nicht drei Seelen in der Brust des Menschen, sondern drei sehr verschiedene Computer in seinem Hirn postulierte. Also appelliere man nicht an seine Vernunft oder sein Pflichtbewusstsein, sondern spreche durch gezielte Anreize die mächtigsten Triebfedern in seinem Innersten an: seine Geldgier und seine Angst vor Minderwertigkeit. Für Verkäufer, die von Provisionen leben, ist das nichts Neues; neu ist, dass dieses Prinzip auf viele andere Berufe übertragen wird, auch solche, in denen die Leistung nicht an der Zahl gefertigter Werkstücke oder verkaufter Versicherungsverträge ablesbar ist. Wo ein solcher quantitativer Maßstab fehlt, wird flugs einer definiert. Und damit beginnt das eigentliche Übel. Dueck beschreibt die Folgen aus profunder Insiderkenntnis. Bei allem, was der Mitarbeiter tut, denkt er an seine Punkte und handelt danach. Für Zusammenarbeit und Hilfe unter Kollegen ist da wenig Platz, denn das System der Punktezumessung ist so ausgelegt, dass alle Leistungen einzelnen Mitarbeitern zugerechnet werden ("accountability"). In der Regel misst ein solches Punktesystem nur einen Teil dessen, auf das es wirklich ankommt, und lädt damit zu widersinnigem Verhalten ein: Ein Verleger, dessen Leistung nur an der Anzahl publizierter Bücher gemessen wird, kann mächtig Punkte machen (und seinen Geschäftsführer positiv beeindrucken), indem er jede Menge Bücher auf den Markt bringt, die mangels Qualität besser ungedruckt geblieben wären.
  4. Crane, G.; Jones, A.: Text, information, knowledge and the evolving record of humanity (2006) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 1182) [ClassicSimilarity], result of:
              0.012300321 = score(doc=1182,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 1182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1182)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Consider a sentence such as "the current price of tea in China is 35 cents per pound." In a library with millions of books we might find many statements of the above form that we could capture today with relatively simple rules: rather than pursuing every variation of a statement, programs can wait, like predators at a water hole, for their informational prey to reappear in a standard linguistic pattern. We can make inferences from sentences such as "NAME1 born at NAME2 in DATE" that NAME more likely than not represents a person and NAME a place and then convert the statement into a proposition about a person born at a given place and time. The changing price of tea in China, pedestrian birth and death dates, or other basic statements may not be truth and beauty in the Phaedrus, but a digital library that could plot the prices of various commodities in different markets over time, plot the various lifetimes of individuals, or extract and classify many events would be very useful. Services such as the Syllabus Finder1 and H-Bot2 (which Dan Cohen describes elsewhere in this issue of D-Lib) represent examples of information extraction already in use. H-Bot, in particular, builds on our evolving ability to extract information from very large corpora such as the billions of web pages available through the Google API. Aside from identifying higher order statements, however, users also want to search and browse named entities: they want to read about "C. P. E. Bach" rather than his father "Johann Sebastian" or about "Cambridge, Maryland", without hearing about "Cambridge, Massachusetts", Cambridge in the UK or any of the other Cambridges scattered around the world. Named entity identification is a well-established area with an ongoing literature. The Natural Language Processing Research Group at the University of Sheffield has developed its open source Generalized Architecture for Text Engineering (GATE) for years, while IBM's Unstructured Information Analysis and Search (UIMA) is "available as open source software to provide a common foundation for industry and academia." Powerful tools are thus freely available and more demanding users can draw upon published literature to develop their own systems. Major search engines such as Google and Yahoo also integrate increasingly sophisticated tools to categorize and identify places. The software resources are rich and expanding. The reference works on which these systems depend, however, are ill-suited for historical analysis. First, simple gazetteers and similar authority lists quickly grow too big for useful information extraction. They provide us with potential entities against which to match textual references, but existing electronic reference works assume that human readers can use their knowledge of geography and of the immediate context to pick the right Boston from the Bostons in the Getty Thesaurus of Geographic Names (TGN), but, with the crucial exception of geographic location, the TGN records do not provide any machine readable clues: we cannot tell which Bostons are large or small. If we are analyzing a document published in 1818, we cannot filter out those places that did not yet exist or that had different names: "Jefferson Davis" is not the name of a parish in Louisiana (tgn,2000880) or a county in Mississippi (tgn,2001118) until after the Civil War.
  5. Lagoze, C.: Keeping Dublin Core simple : Cross-domain discovery or resource description? (2001) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 1216) [ClassicSimilarity], result of:
              0.012300321 = score(doc=1216,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 1216, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1216)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  6. Ratzek, W.: Schwarze Löcher : Im Sog der Informations- und Wissensindustrie (2005) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 1433) [ClassicSimilarity], result of:
              0.012300321 = score(doc=1433,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 1433, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1433)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    1. in wörtlicher Bedeutung heißt Information also das Versehen von etwas in einer Form, Gestaltgebung 2. in übertragenem Sinne heißt Information genau das gleiche wie unser Wort Bildung welches gleichfalls übertragen gebraucht wird... informatio als Bildung differenziert sich nun wieder in zwei Unterbedeutungen: a) Bildung durch Unterrichtung aa) informatio als Vorgang und ab) informatio als Ergebnis Zur Problematik zwischen Information und Wissen führt er auch die US-Zukunftsforscher Matthias Horx und den alten weisen Josef Weizenbaum an. Dessen scharfe und pointierte Kritik an der Internet-Euphorie liest man heute noch mit Vergnügen. Damit wird einer allzu simplen nationalen Zuweisungen von Vorlieben für Informationswirtschaft als "typisch amerikanisch" und allen kritiklosen Adepten einer Computergläubigkeit eine Absage erteilt. (S.41/42). Es ist erstaunlich, dass es Ratzek gelingt, den thematischen Umfang des Buches in nur drei großen Abschnitten unterzubringen, die er Teil A: Grundlagen, Teil B: Techniksynopse und Teil C: Visionen nennt. Die unter diesen Teilen aufgeführten Kapitel folgen ohne Abweichungen den vorgegebenen Themen. Die knapp gehaltenen Zusammenfassungen werden von sehr klaren und anschaulichen Grafiken unterstrichen. Um diese sehr stringente Einteilung nicht zu unterbrechen, gibt es bisweilen Exkurse, die kleine historische oder auch philosophische Ausflüge erlauben. Dies ist notwendig, denn Ratzek versucht nicht nur die von ihm vorgegebene Problematik immer wieder aufzunehmen, sondern er will diese auch auf allen Feldern der Informationstechnologie exemplifizieren. Dazu gehören nicht nur die Informationstechnologie und ihre diversen Apparate sowie die Netzwerke wie Telefon und Fernsehen, die letztendlich zu dem immer wieder durchscheinenden Credo des Autors führen: "...weil es eine Pflicht für Informationswissenschaftler ist, zu denen der Autor gehört, diesen Unterschied zu erkennen und darauf hinzuweisen, dass nicht die Informatisierung der Gesellschaft und Wirtschaft das Ziel sein kann, sondern der sinnvolle Umgang mit Information und Wissen." (S.177)
  7. Schmölders, C.: Europa als Wunderkammer : Die EU-Kommission will eine virtuelle Arche Noah der europäischen Kulturgüter schaffen (2008) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 2571) [ClassicSimilarity], result of:
              0.012300321 = score(doc=2571,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 2571, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2571)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  8. Web 2.0 in der Unternehmenspraxis : Grundlagen, Fallstudien und Trends zum Einsatz von Social-Software (2009) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 2917) [ClassicSimilarity], result of:
              0.012300321 = score(doc=2917,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 2917, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2917)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: IWP 60(1009) H.4, S.245-246 (C. Wolff): "Der von Andrea Back (St. Gallen), Norbert Gronau (Potsdam) und Klaus Tochtermann herausgegebene Sammelband "Web 2.0 in der Unternehmenspraxis" verbindet in schlüssiger Weise die systematische Einführung in die Themen Web 2.0 und social software mit der Darstellung von Möglichkeiten, solche neuen Informationssysteme für Veränderungen im Unternehmen zu nutzen und zeigt dies anhand einer ganzen Reihe einzelner Fallstudien auf. Auch zukünftige Anwendungen wie das social semantic web werden als Entwicklungschance erörtert. In einer knappen Einleitung werden kurz die wesentlichen Begriffe wie Web 2.0, social software oder "Enterprise 2.0" eingeführt und der Aufbau des Bandes wird erläutert. Das sehr viel umfangreichere zweite Kapitel führt in die wesentlichen Systemtypen der social software ein: Erläutert werden Wikis, Weblogs, Social Bookmarking, Social Tagging, Podcasting, Newsfeeds, Communities und soziale Netzwerke sowie die technischen Besonderheiten von social software. Die Aufteilung ist überzeugend, für jeden Systemtyp werden nicht nur wesentliche Funktionen, sondern auch typische Anwendungen und insbesondere das Potenzial zur Nutzung im Unternehmen, insbesondere mit Blick auf Fragen des Wissensmanagements erläutert. Teilweise können die Autoren auch aktuelle Nutzungsdaten der Systeme ergänzen. Auch wenn bei der hohen Entwicklungsdynamik der social software-Systeme ständig neue Formen an Bedeutung gewinnen, vermag die Einteilung der Autoren zu überzeugen.
  9. Good tags - bad tags : Social Tagging in der Wissensorganisation (2008) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 3054) [ClassicSimilarity], result of:
              0.012300321 = score(doc=3054,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 3054, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3054)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Enthält die Beiträge der Tagung "Social Tagging in der Wissensorganisation" am 21.-22.02.2008 am Institut für Wissensmedien (IWM) in Tübingen. Volltext unter: http://www.waxmann.com/kat/inhalt/2039Volltext.pdf. Vgl. die Rez. unter: http://sehepunkte.de/2008/11/14934.html. Rez. in: IWP 60(1009) H.4, S.246-247 (C. Wolff): "Tagging-Systeme erfreuen sich in den letzten Jahren einer ungemein großen Beliebtheit, erlauben sie dem Nutzer doch die Informationserschließung "mit eigenen Worten", also ohne Rekurs auf vorgegebene Ordnungs- und Begriffsysteme und für Medien wie Bild und Video, für die herkömmliche Verfahren des Information Retrieval (noch) versagen. Die Beherrschung der Film- und Bilderfülle, wie wir sie bei Flickr oder YouTube vorfinden, ist mit anderen Mitteln als dem intellektuellen Einsatz der Nutzer nicht vorstellbar - eine professionelle Aufbereitung angesichts der Massendaten (und ihrer zu einem großen Teil auch minderen Qualität) nicht möglich und sinnvoll. Insofern hat sich Tagging als ein probates Mittel der Erschließung herausgebildet, das dort Lücken füllen kann, wo andere Verfahren (Erschließung durch information professionals, automatische Indexierung, Erschließung durch Autoren) fehlen oder nicht anwendbar sind. Unter dem Titel "Good Tags - Bad Tags. Social Tagging in der Wissensorganisation" und der Herausgeberschaft von Birgit Gaiser, Thorsten Hampel und Stefanie Panke sind in der Reihe Medien in der Wissenschaft (Bd. 47) Beiträge eines interdisziplinären Workshops der Gesellschaft für Medien in der Wissenschaft zum Thema Tagging versammelt, der im Frühjahr 2008 am Institut für Wissensmedien in Tübingen stattgefunden hat. . . .
  10. Altenhöner, R.; Gömpel, R.; Jahns, Y.; Junger, U.; Mahnke, C.; Meyer, A.; Oehlschläger, S.: Weltkongress Bibliothek und Information 75. IFLA-Generalkonferenz in Mailand, Italien : Aus den Veranstaltungen der Division IV Bibliographic Control und ihren Sektionen und der Arbeitsgruppe für die Informationsgesellschaft (2009) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 3147) [ClassicSimilarity], result of:
              0.012300321 = score(doc=3147,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 3147, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3147)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  11. Facets: a fruitful notion in many domains : special issue on facet analysis (2008) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 3262) [ClassicSimilarity], result of:
              0.012300321 = score(doc=3262,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 3262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3262)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Editor
    Gnoli, C.
  12. Grundlagen der praktischen Information und Dokumentation (2004) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 693) [ClassicSimilarity], result of:
              0.012300321 = score(doc=693,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=693)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Standardwerk zur fachlichen Informationsarbeit wurde 1972 von Klaus Laisiepen, Ernst Lutterbeck und Karl-Heinrich Meyer-Uhlenried begründet. Generationen von Wissenschaftlern, Praktikern, Dozenten und Studierenden schöpften aus diesem Handbuch Kenntnisse und Wissen oder gaben als Autoren ihre Erfahrungen weiter. Mehr als 30 Jahre nach der ersten Publikation wird diese Tradition weitergeführt. Seit der vierten Ausgabe von 1997 sind erhebliche technische, methodische und organisatorische Veränderungen in den Bereichen Information und Dokumentation sowie in der Informationswissenschaft zu verzeichnen. Für die vorliegende Ausgabe konnte mit Rainer Kuhlen als neuem Mitherausgeber die informationswissenschaftliche Komponente weiter gestärkt werden. Der Aufbau der Grundlagen der praktischen Information und Dokumentation spiegelt diese Verbindung von Aktualität und Kontinuität wider: - In KAPITEL A »Grundlegendes« werden die theoretischen und begrifflichen Grundlagen des Fachgebietes erläutert, historische und professionelle Entwicklungen nachgezeichnet. - KAPITEL B »Methoden«, das die methodischen Aspekte der Informationsarbeit behandelt, wurde stark ausgeweitet. Neben den bisherigen Themen wie Klassifikation, Thesaurus usw. werden nun auch neue Aspekte wie Wissensmanagement, Kryptographie oder Dokumentmanagement behandelt. - Fortgeschrieben wurden in KAPITEL C »Systeme - Produkte - Dienstleistungen« die besonderen Fachinformationsbereiche (z.B. Metainformationsdienste des Internet, Datenbank-Management-Systeme oder Technische Redaktion). - Auf dem aktuellen Stand sind auch die Kurzdarstellungen der institutionellen Teile des Informationswesens (Archive, Bibliotheken, Buchhandel, Verlage, Elektronisches Publizieren, Medien, Wirtschaftsinformation, Medizin, E-Commerce u.a.) in KAPITEL D »Bereiche der Fachinformation und -kommunikation«. Gänzlich neu ist KAPITEL E »Information im Kontext«, das Einblicke in andere Wissenschaftsdisziplinen gibt, in denen der Bereich der Information eine immer größere Rolle spielt (z.B. Informatik, Psychologie, Sprachwissenschaft, Pädagogik, Betriebswirtschaft, Politikwissenschaft, Naturwissenschaften, Philosophie oder Neurobiologie). Den Textband mit insgesamt 73 Beiträgen auf 762 Seiten ergänzt Band 2: ein Glossar zu der im Handbuch verwendeten Terminologie mit einem zusätzlichen englischsprachigen Register. Hier werden auf 138 Seiten wichtige Begriffe und Konzepte des Informationswesens definiert und beschrieben. Das Handbuch bietet die zentralen Grundlagen für jeden Studierenden und Lehrenden, für Entscheidungsträger und Praktiker im Bereich der Information und Dokumentation. Es ist damit ein verlässlicher Leitfaden durch die Vielzahl unterschiedlicher Informationsmethoden, -dienste, -systeme und -techniken sowie die damit befassten Bereiche und Institutionen.
  13. Koch, C.: Bewusstsein : ein neurobiologisches Rätsel (2005) 0.00
    0.0030750802 = product of:
      0.0061501605 = sum of:
        0.0061501605 = product of:
          0.012300321 = sum of:
            0.012300321 = weight(_text_:c in 4559) [ClassicSimilarity], result of:
              0.012300321 = score(doc=4559,freq=2.0), product of:
                0.1291003 = queryWeight, product of:
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.037426826 = queryNorm
                0.09527725 = fieldWeight in 4559, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.4494052 = idf(docFreq=3817, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4559)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  14. Hilberer, T.: Aufwand vs. Nutzen : Wie sollen deutsche wissenschaftliche Bibliotheken künftig katalogisieren? (2003) 0.00
    0.0025354093 = product of:
      0.0050708186 = sum of:
        0.0050708186 = product of:
          0.010141637 = sum of:
            0.010141637 = weight(_text_:22 in 1733) [ClassicSimilarity], result of:
              0.010141637 = score(doc=1733,freq=2.0), product of:
                0.13106237 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037426826 = queryNorm
                0.07738023 = fieldWeight in 1733, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1733)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2003 12:13:13
  15. Bade, D.: ¬The creation and persistence of misinformation in shared library catalogs : language and subject knowledge in a technological era (2002) 0.00
    0.0025354093 = product of:
      0.0050708186 = sum of:
        0.0050708186 = product of:
          0.010141637 = sum of:
            0.010141637 = weight(_text_:22 in 1858) [ClassicSimilarity], result of:
              0.010141637 = score(doc=1858,freq=2.0), product of:
                0.13106237 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037426826 = queryNorm
                0.07738023 = fieldWeight in 1858, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1858)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 9.1997 19:16:05
  16. National Seminar on Classification in the Digital Environment : Papers contributed to the National Seminar an Classification in the Digital Environment, Bangalore, 9-11 August 2001 (2001) 0.00
    0.0025354093 = product of:
      0.0050708186 = sum of:
        0.0050708186 = product of:
          0.010141637 = sum of:
            0.010141637 = weight(_text_:22 in 2047) [ClassicSimilarity], result of:
              0.010141637 = score(doc=2047,freq=2.0), product of:
                0.13106237 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037426826 = queryNorm
                0.07738023 = fieldWeight in 2047, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2047)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    2. 1.2004 10:35:22
  17. Johannsen, J.: InetBib 2004 in Bonn : Tagungsbericht: (2005) 0.00
    0.0025354093 = product of:
      0.0050708186 = sum of:
        0.0050708186 = product of:
          0.010141637 = sum of:
            0.010141637 = weight(_text_:22 in 3125) [ClassicSimilarity], result of:
              0.010141637 = score(doc=3125,freq=2.0), product of:
                0.13106237 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037426826 = queryNorm
                0.07738023 = fieldWeight in 3125, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3125)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2005 19:05:37
  18. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.00
    0.0025354093 = product of:
      0.0050708186 = sum of:
        0.0050708186 = product of:
          0.010141637 = sum of:
            0.010141637 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.010141637 = score(doc=4871,freq=2.0), product of:
                0.13106237 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037426826 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2006 18:34:49
  19. Information visualization in data mining and knowledge discovery (2002) 0.00
    0.0025354093 = product of:
      0.0050708186 = sum of:
        0.0050708186 = product of:
          0.010141637 = sum of:
            0.010141637 = weight(_text_:22 in 1789) [ClassicSimilarity], result of:
              0.010141637 = score(doc=1789,freq=2.0), product of:
                0.13106237 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037426826 = queryNorm
                0.07738023 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    23. 3.2008 19:10:22
  20. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.00
    0.0025354093 = product of:
      0.0050708186 = sum of:
        0.0050708186 = product of:
          0.010141637 = sum of:
            0.010141637 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
              0.010141637 = score(doc=3684,freq=2.0), product of:
                0.13106237 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037426826 = queryNorm
                0.07738023 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2005 9:52:00

Languages

Types

  • a 2042
  • m 281
  • s 119
  • el 117
  • x 31
  • b 28
  • i 12
  • r 9
  • n 4
  • l 1
  • p 1
  • More… Less…

Themes

Subjects

Classifications