Search (1420 results, page 2 of 71)

  • × year_i:[2000 TO 2010}
  1. Zeng, M.L.; Fan, W.; Lin, X.: SKOS for an integrated vocabulary structure (2008) 0.06
    0.056839816 = product of:
      0.11367963 = sum of:
        0.11367963 = sum of:
          0.07493546 = weight(_text_:200 in 2654) [ClassicSimilarity], result of:
            0.07493546 = score(doc=2654,freq=2.0), product of:
              0.2927719 = queryWeight, product of:
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.050551776 = queryNorm
              0.25595167 = fieldWeight in 2654, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.03125 = fieldNorm(doc=2654)
          0.038744178 = weight(_text_:22 in 2654) [ClassicSimilarity], result of:
            0.038744178 = score(doc=2654,freq=4.0), product of:
              0.17702371 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050551776 = queryNorm
              0.21886435 = fieldWeight in 2654, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2654)
      0.5 = coord(1/2)
    
    Abstract
    In order to transfer the Chinese Classified Thesaurus (CCT) into a machine-processable format and provide CCT-based Web services, a pilot study has been conducted in which a variety of selected CCT classes and mapped thesaurus entries are encoded with SKOS. OWL and RDFS are also used to encode the same contents for the purposes of feasibility and cost-benefit comparison. CCT is a collected effort led by the National Library of China. It is an integration of the national standards Chinese Library Classification (CLC) 4th edition and Chinese Thesaurus (CT). As a manually created mapping product, CCT provides for each of the classes the corresponding thesaurus terms, and vice versa. The coverage of CCT includes four major clusters: philosophy, social sciences and humanities, natural sciences and technologies, and general works. There are 22 main-classes, 52,992 sub-classes and divisions, 110,837 preferred thesaurus terms, 35,690 entry terms (non-preferred terms), and 59,738 pre-coordinated headings (Chinese Classified Thesaurus, 2005) Major challenges of encoding this large vocabulary comes from its integrated structure. CCT is a result of the combination of two structures (illustrated in Figure 1): a thesaurus that uses ISO-2788 standardized structure and a classification scheme that is basically enumerative, but provides some flexibility for several kinds of synthetic mechanisms Other challenges include the complex relationships caused by differences of granularities of two original schemes and their presentation with various levels of SKOS elements; as well as the diverse coordination of entries due to the use of auxiliary tables and pre-coordinated headings derived from combining classes, subdivisions, and thesaurus terms, which do not correspond to existing unique identifiers. The poster reports the progress, shares the sample SKOS entries, and summarizes problems identified during the SKOS encoding process. Although OWL Lite and OWL Full provide richer expressiveness, the cost-benefit issues and the final purposes of encoding CCT raise questions of using such approaches.
    Pages
    S.200-201
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas
  2. Andelfinger, U.: Inhaltliche Erschließung des Bereichs 'Sozialorientierte Gestaltung von Informationstechnik' : Ein begriffsanalytischer Ansatz (2000) 0.06
    0.056201596 = product of:
      0.11240319 = sum of:
        0.11240319 = product of:
          0.22480638 = sum of:
            0.22480638 = weight(_text_:200 in 4201) [ClassicSimilarity], result of:
              0.22480638 = score(doc=4201,freq=2.0), product of:
                0.2927719 = queryWeight, product of:
                  5.7915254 = idf(docFreq=366, maxDocs=44218)
                  0.050551776 = queryNorm
                0.76785505 = fieldWeight in 4201, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.7915254 = idf(docFreq=366, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4201)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    S.200-222
  3. Jäger, W.: Wissensmanagement wird wichtiger : Ergebnisse einer Umfrage bei den 200 größten deutschen Unternehmen (2000) 0.06
    0.056201596 = product of:
      0.11240319 = sum of:
        0.11240319 = product of:
          0.22480638 = sum of:
            0.22480638 = weight(_text_:200 in 4945) [ClassicSimilarity], result of:
              0.22480638 = score(doc=4945,freq=2.0), product of:
                0.2927719 = queryWeight, product of:
                  5.7915254 = idf(docFreq=366, maxDocs=44218)
                  0.050551776 = queryNorm
                0.76785505 = fieldWeight in 4945, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.7915254 = idf(docFreq=366, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4945)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  4. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.05
    0.053526416 = product of:
      0.10705283 = sum of:
        0.10705283 = product of:
          0.3211585 = sum of:
            0.3211585 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.3211585 = score(doc=140,freq=2.0), product of:
                0.42857853 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.050551776 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  5. Bates, C.: Web programming : building Internet applications (2000) 0.05
    0.05298737 = product of:
      0.10597474 = sum of:
        0.10597474 = product of:
          0.21194948 = sum of:
            0.21194948 = weight(_text_:200 in 5) [ClassicSimilarity], result of:
              0.21194948 = score(doc=5,freq=4.0), product of:
                0.2927719 = queryWeight, product of:
                  5.7915254 = idf(docFreq=366, maxDocs=44218)
                  0.050551776 = queryNorm
                0.7239407 = fieldWeight in 5, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.7915254 = idf(docFreq=366, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Classification
    ST 200
    RVK
    ST 200
  6. Franken, G.: USA zu mächtig? : Kritiker fordern, dass die Netzorganisation ICANN in andere Hände gelegt wird (2004) 0.05
    0.051165864 = product of:
      0.10233173 = sum of:
        0.10233173 = sum of:
          0.07493546 = weight(_text_:200 in 2332) [ClassicSimilarity], result of:
            0.07493546 = score(doc=2332,freq=2.0), product of:
              0.2927719 = queryWeight, product of:
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.050551776 = queryNorm
              0.25595167 = fieldWeight in 2332, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.03125 = fieldNorm(doc=2332)
          0.027396271 = weight(_text_:22 in 2332) [ClassicSimilarity], result of:
            0.027396271 = score(doc=2332,freq=2.0), product of:
              0.17702371 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050551776 = queryNorm
              0.15476047 = fieldWeight in 2332, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2332)
      0.5 = coord(1/2)
    
    Content
    "Im 38. Stockwerk des UN-Hauptquartiers werden normalerweise nur Staats- und Regierungschefs oder mächtige Konzernherren empfangen. Als jüngst dort der Präsident einer.kalifornischen Non-Profit Organisation mit dem sperrigen Namen "Internet Corporation for Assigned Names and Numbers" (www.icann.org) von UN-Generalsekretär Kofi Annan begrüßt wurde" signalisierte dies eine wachsende Beachtung für die Institution zur Verwaltung der Internet Adressen. Die ICANN betreut das "Domain Name System", das Ordnungssystem für Internet-Adressen. Aufgrund der Anfänge des Internet als Projekt der US-Streitkräfte untersteht die ICANN bis heute der Aufsicht der USA und ist dem Wirtschaftsministerium rechenschaftspflichtig. Diese Abhängigkeit stößt zunehmend auf Kritik. Nachdem der Sondergipfel der Vereinten Nationen über die Informationsgesellschaft im Dezember vergangenen Jahres keine Einigung über die künftige Verwaltung der Internet-Adressen gefunden hat" soll eine UN-Arbeitsgruppe dem Generalsekretär bis zum nächsten Jahr einen Bericht mit Empfehlungen vorlegen.: Bei einer Anhörung vertraten jetzt rund 200 Fachleute - Diplomaten" Manager von Computerfirmen und engagierte Vertreter der unabhängigen Internet-Szene - ihre Standpunkte. "Die ICANN muss internationaler und transparenter werden"" forderte der stellvertretende Vorsitzende der UN-Arbeitsgruppe über Informations- und Kommunikationstechnologien" Talal Abu Ghazaleh. UN könnten Web beaufsichtigen Eine gute Plattform dafür wären die Vereinten Nationen" findet der sudanesische Computerwissenschaftler Isseldin Mohamed Osman. Die Unternehmen sind skeptisch, ob die UN diese Rolle spielen könnten. Sie räumen aber ein, dass irgendeine Art von internationaler Körperschaft nützlich wäre, um übergreifende Fragen wie Sicherheit, Sprachen oder die InternetReichweite in Entwicklungsländern zu koordinieren. Für internationalen Streit sorgt auch immer wieder die Verwaltung der Länder-Domains: Im Jahr 2000 führte die ICANN die Endung .ps für palästinensische Web-Sites ein" während die Bildung eines eigenen Staates noch lange nicht sicher ist. Während der Taliban-Herrschaft in Afghanistan übertrug die ICANN die Verwaltung der Adressen mit der Endung .af an Exilafghanen; erst im März 2003 wurde die neue afghanische Regierung dafür zuständig. "Wir haben eine kalifornische Institution" die dem Wirtschaftsministerium untersteht und die Entscheidung trifft, was ein Land ist, kritisierte der ehemalige ICANN-Direktor Karl Auerbach."
    Date
    3. 5.1997 8:44:22
  7. Baker, T.: ¬A grammar of Dublin Core (2000) 0.05
    0.051165864 = product of:
      0.10233173 = sum of:
        0.10233173 = sum of:
          0.07493546 = weight(_text_:200 in 1236) [ClassicSimilarity], result of:
            0.07493546 = score(doc=1236,freq=2.0), product of:
              0.2927719 = queryWeight, product of:
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.050551776 = queryNorm
              0.25595167 = fieldWeight in 1236, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.03125 = fieldNorm(doc=1236)
          0.027396271 = weight(_text_:22 in 1236) [ClassicSimilarity], result of:
            0.027396271 = score(doc=1236,freq=2.0), product of:
              0.17702371 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050551776 = queryNorm
              0.15476047 = fieldWeight in 1236, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1236)
      0.5 = coord(1/2)
    
    Abstract
    Dublin Core is often presented as a modern form of catalog card -- a set of elements (and now qualifiers) that describe resources in a complete package. Sometimes it is proposed as an exchange format for sharing records among multiple collections. The founding principle that "every element is optional and repeatable" reinforces the notion that a Dublin Core description is to be taken as a whole. This paper, in contrast, is based on a much different premise: Dublin Core is a language. More precisely, it is a small language for making a particular class of statements about resources. Like natural languages, it has a vocabulary of word-like terms, the two classes of which -- elements and qualifiers -- function within statements like nouns and adjectives; and it has a syntax for arranging elements and qualifiers into statements according to a simple pattern. Whenever tourists order a meal or ask directions in an unfamiliar language, considerate native speakers will spontaneously limit themselves to basic words and simple sentence patterns along the lines of "I am so-and-so" or "This is such-and-such". Linguists call this pidginization. In such situations, a small phrase book or translated menu can be most helpful. By analogy, today's Web has been called an Internet Commons where users and information providers from a wide range of scientific, commercial, and social domains present their information in a variety of incompatible data models and description languages. In this context, Dublin Core presents itself as a metadata pidgin for digital tourists who must find their way in this linguistically diverse landscape. Its vocabulary is small enough to learn quickly, and its basic pattern is easily grasped. It is well-suited to serve as an auxiliary language for digital libraries. This grammar starts by defining terms. It then follows a 200-year-old tradition of English grammar teaching by focusing on the structure of single statements. It concludes by looking at the growing dictionary of Dublin Core vocabulary terms -- its registry, and at how statements can be used to build the metadata equivalent of paragraphs and compositions -- the application profile.
    Date
    26.12.2011 14:01:22
  8. Lischka, K.: Spurensuche im Datenwust : Data-Mining-Software fahndet nach kriminellen Mitarbeitern, guten Kunden - und bald vielleicht auch nach Terroristen (2002) 0.05
    0.05001413 = product of:
      0.10002826 = sum of:
        0.10002826 = sum of:
          0.07948106 = weight(_text_:200 in 1178) [ClassicSimilarity], result of:
            0.07948106 = score(doc=1178,freq=4.0), product of:
              0.2927719 = queryWeight, product of:
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.050551776 = queryNorm
              0.27147776 = fieldWeight in 1178, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1178)
          0.020547204 = weight(_text_:22 in 1178) [ClassicSimilarity], result of:
            0.020547204 = score(doc=1178,freq=2.0), product of:
              0.17702371 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050551776 = queryNorm
              0.116070345 = fieldWeight in 1178, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1178)
      0.5 = coord(1/2)
    
    Content
    "Ob man als Terrorist einen Anschlag gegen die Vereinigten Staaten plant, als Kassierer Scheine aus der Kasse unterschlägt oder für bestimmte Produkte besonders gerne Geld ausgibt - einen Unterschied macht Data-Mining-Software da nicht. Solche Programme analysieren riesige Daten- mengen und fällen statistische Urteile. Mit diesen Methoden wollen nun die For- scher des "Information Awaren in den Vereinigten Staaten Spuren von Terroristen in den Datenbanken von Behörden und privaten Unternehmen wie Kreditkartenfirmen finden. 200 Millionen Dollar umfasst der Jahresetat für die verschiedenen Forschungsprojekte. Dass solche Software in der Praxis funktioniert, zeigen die steigenden Umsätze der Anbieter so genannter Customer-Relationship-Management-Software. Im vergangenen Jahr ist das Potenzial für analytische CRM-Anwendungen laut dem Marktforschungsinstitut IDC weltweit um 22 Prozent gewachsen, bis zum Jahr 2006 soll es in Deutschland mit einem jährlichen Plus von 14,1 Prozent so weitergehen. Und das trotz schwacher Konjunktur - oder gerade deswegen. Denn ähnlich wie Data-Mining der USRegierung helfen soll, Terroristen zu finden, entscheiden CRM-Programme heute, welche Kunden für eine Firma profitabel sind. Und welche es künftig sein werden, wie Manuela Schnaubelt, Sprecherin des CRM-Anbieters SAP, beschreibt: "Die Kundenbewertung ist ein zentraler Bestandteil des analytischen CRM. Sie ermöglicht es Unternehmen, sich auf die für sie wichtigen und richtigen Kunden zu fokussieren. Darüber hinaus können Firmen mit speziellen Scoring- Verfahren ermitteln, welche Kunden langfristig in welchem Maße zum Unternehmenserfolg beitragen." Die Folgen der Bewertungen sind für die Betroffenen nicht immer positiv: Attraktive Kunden profitieren von individuellen Sonderangeboten und besonderer Zuwendung. Andere hängen vielleicht so lauge in der Warteschleife des Telefonservice, bis die profitableren Kunden abgearbeitet sind. So könnte eine praktische Umsetzung dessen aussehen, was SAP-Spreche-rin Schnaubelt abstrakt beschreibt: "In vielen Unternehmen wird Kundenbewertung mit der klassischen ABC-Analyse durchgeführt, bei der Kunden anhand von Daten wie dem Umsatz kategorisiert werden. A-Kunden als besonders wichtige Kunden werden anders betreut als C-Kunden." Noch näher am geplanten Einsatz von Data-Mining zur Terroristenjagd ist eine Anwendung, die heute viele Firmen erfolgreich nutzen: Sie spüren betrügende Mitarbeiter auf. Werner Sülzer vom großen CRM-Anbieter NCR Teradata beschreibt die Möglichkeiten so: "Heute hinterlässt praktisch jeder Täter - ob Mitarbeiter, Kunde oder Lieferant - Datenspuren bei seinen wirtschaftskriminellen Handlungen. Es muss vorrangig darum gehen, einzelne Spuren zu Handlungsmustern und Täterprofilen zu verdichten. Das gelingt mittels zentraler Datenlager und hoch entwickelter Such- und Analyseinstrumente." Von konkreten Erfolgen sprich: Entlas-sungen krimineller Mitarbeiter-nach Einsatz solcher Programme erzählen Unternehmen nicht gerne. Matthias Wilke von der "Beratungsstelle für Technologiefolgen und Qualifizierung" (BTQ) der Gewerkschaft Verdi weiß von einem Fall 'aus der Schweiz. Dort setzt die Handelskette "Pick Pay" das Programm "Lord Lose Prevention" ein. Zwei Monate nach Einfüh-rung seien Unterschlagungen im Wert von etwa 200 000 Franken ermittelt worden. Das kostete mehr als 50 verdächtige Kassiererinnen und Kassierer den Job.
  9. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.05
    0.046835616 = product of:
      0.09367123 = sum of:
        0.09367123 = product of:
          0.2810137 = sum of:
            0.2810137 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.2810137 = score(doc=306,freq=2.0), product of:
                0.42857853 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.050551776 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  10. Kohkemper, R.: Studenten-Charme im Big Business : 200 Millionen Anfragen pro Tag - die erfolgreichste Suchmaschine des Internet (2004) 0.05
    0.045224663 = product of:
      0.090449326 = sum of:
        0.090449326 = sum of:
          0.066234216 = weight(_text_:200 in 2324) [ClassicSimilarity], result of:
            0.066234216 = score(doc=2324,freq=4.0), product of:
              0.2927719 = queryWeight, product of:
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.050551776 = queryNorm
              0.22623146 = fieldWeight in 2324, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2324)
          0.024215112 = weight(_text_:22 in 2324) [ClassicSimilarity], result of:
            0.024215112 = score(doc=2324,freq=4.0), product of:
              0.17702371 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050551776 = queryNorm
              0.13679022 = fieldWeight in 2324, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2324)
      0.5 = coord(1/2)
    
    Content
    "Heute schon gegoogelt? Wer im Internet irgendwas gesucht hat, bestimmt. Oder kennen Sie aus dem Eff-Eff noch andere Suchmaschinen? Richtig, Altavista gibt es noch - oder gab es? Nein, ist noch da, genauso wie Yahoo oder Lycos. Nur: Die Leute googeln lieber. Sechs Jahre erst gibt es google.com oder eben google.de, und längst ist Schau doch mal bei Google" nahezu synonym geworden für die Internetrecherche. 200 Millionen Anfragen in 88 Sprachen beantwortet Google heute - pro Tag. Begonnen hat das ganze 1998, und so wie es in der Computerbranche üblich scheint. In einer Garage - so soll ja auch Microsoft-Gründer Bill Gates angefangen haben. Auch Larry Page und Sergey Brin mieteten erstmal einen alten Schuppen im Silicon Vallev an, dem Zentrum für Computertechnologie im US=Staat Kalifornien. Geld hatten sie keines, nur einen Vorsatz: die beste Suchmaschine erfinden. Nun, im Gründungsjahr hatte es an derlei Helferlein im weltweiten Netz keinen Mangel. Aber eben mit Mängeln, meinten die beiden Doktoranden an der renommierten StanfordUniversität. Die heute 31 und 30 Jahre Google-Gründer waren damals genervt, dass die Suchmaschinen in schöner Regelmäßigkeit Unnützes bis Anzügliches ausspuckten, aber selten das, was man wirklich suchte. Nein, sie wollten eine intelligente Suchmaschine, die die Spreu vom Weizen trennt. Beseelt von der Idee schnorrten sie bei Freunden und Verwandten eine Million, Dollar zusammen - und gaben das Studieren dran. Wäre es nach ihren Familien gegangen, wären beide vermutlich wie ihre Väter Universitätsprofessoren geworden.
    Date
    3. 5.1997 8:44:22
    13. 6.2004 14:34:22
  11. Saving the time of the library user through subject access innovation : Papers in honor of Pauline Atherton Cochrane (2000) 0.04
    0.044770133 = product of:
      0.089540266 = sum of:
        0.089540266 = sum of:
          0.06556853 = weight(_text_:200 in 1429) [ClassicSimilarity], result of:
            0.06556853 = score(doc=1429,freq=2.0), product of:
              0.2927719 = queryWeight, product of:
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.050551776 = queryNorm
              0.22395772 = fieldWeight in 1429, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1429)
          0.023971736 = weight(_text_:22 in 1429) [ClassicSimilarity], result of:
            0.023971736 = score(doc=1429,freq=2.0), product of:
              0.17702371 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050551776 = queryNorm
              0.1354154 = fieldWeight in 1429, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=1429)
      0.5 = coord(1/2)
    
    Date
    22. 9.1997 19:16:05
    Footnote
    Rez. in: KO 28(2001) no.2, S.97-100 (S. Betrand-Gastaldy); Information processing and management 37(2001) no.5, S.766-767 (H. Borko); JASIST 23(2002) no.1, S.58-60 (A.T.D. Petrou); Library and information science research 23(2001) S.200-202 (D.J. Karpuk)
  12. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.04
    0.044770133 = product of:
      0.089540266 = sum of:
        0.089540266 = sum of:
          0.06556853 = weight(_text_:200 in 4044) [ClassicSimilarity], result of:
            0.06556853 = score(doc=4044,freq=2.0), product of:
              0.2927719 = queryWeight, product of:
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.050551776 = queryNorm
              0.22395772 = fieldWeight in 4044, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4044)
          0.023971736 = weight(_text_:22 in 4044) [ClassicSimilarity], result of:
            0.023971736 = score(doc=4044,freq=2.0), product of:
              0.17702371 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050551776 = queryNorm
              0.1354154 = fieldWeight in 4044, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4044)
      0.5 = coord(1/2)
    
    Content
    "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
    Date
    3. 5.1997 8:44:22
  13. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.04
    0.040144812 = product of:
      0.080289625 = sum of:
        0.080289625 = product of:
          0.24086887 = sum of:
            0.24086887 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.24086887 = score(doc=2918,freq=2.0), product of:
                0.42857853 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.050551776 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  14. Damasio, A.R.: Ich fühle, also bin ich : Die Entschlüsselung des Bewusstseins (2000) 0.04
    0.03974053 = product of:
      0.07948106 = sum of:
        0.07948106 = product of:
          0.15896212 = sum of:
            0.15896212 = weight(_text_:200 in 4169) [ClassicSimilarity], result of:
              0.15896212 = score(doc=4169,freq=4.0), product of:
                0.2927719 = queryWeight, product of:
                  5.7915254 = idf(docFreq=366, maxDocs=44218)
                  0.050551776 = queryNorm
                0.5429555 = fieldWeight in 4169, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.7915254 = idf(docFreq=366, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4169)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Classification
    PSY 200
    SFB
    PSY 200
  15. RAK-NBM : Interpretationshilfe zu NBM 3b,3 (2000) 0.04
    0.038744178 = product of:
      0.077488355 = sum of:
        0.077488355 = product of:
          0.15497671 = sum of:
            0.15497671 = weight(_text_:22 in 4362) [ClassicSimilarity], result of:
              0.15497671 = score(doc=4362,freq=4.0), product of:
                0.17702371 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050551776 = queryNorm
                0.8754574 = fieldWeight in 4362, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4362)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2000 19:22:27
  16. Diederichs, A.: Wissensmanagement ist Macht : Effektiv und kostenbewußt arbeiten im Informationszeitalter (2005) 0.04
    0.038744178 = product of:
      0.077488355 = sum of:
        0.077488355 = product of:
          0.15497671 = sum of:
            0.15497671 = weight(_text_:22 in 3211) [ClassicSimilarity], result of:
              0.15497671 = score(doc=3211,freq=4.0), product of:
                0.17702371 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050551776 = queryNorm
                0.8754574 = fieldWeight in 3211, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3211)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.2005 9:16:22
  17. Hawking, D.; Robertson, S.: On collection size and retrieval effectiveness (2003) 0.04
    0.038744178 = product of:
      0.077488355 = sum of:
        0.077488355 = product of:
          0.15497671 = sum of:
            0.15497671 = weight(_text_:22 in 4109) [ClassicSimilarity], result of:
              0.15497671 = score(doc=4109,freq=4.0), product of:
                0.17702371 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050551776 = queryNorm
                0.8754574 = fieldWeight in 4109, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4109)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    14. 8.2005 14:22:22
  18. Müller-Wolf, K.: (Alb-)Traum der virtuellen Bücherwelt : Internet-Unternehmen Google möchte weltumspannende digitale Bibliothek schaffen (2005) 0.04
    0.0383744 = product of:
      0.0767488 = sum of:
        0.0767488 = sum of:
          0.056201596 = weight(_text_:200 in 4318) [ClassicSimilarity], result of:
            0.056201596 = score(doc=4318,freq=2.0), product of:
              0.2927719 = queryWeight, product of:
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.050551776 = queryNorm
              0.19196376 = fieldWeight in 4318, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.0234375 = fieldNorm(doc=4318)
          0.020547204 = weight(_text_:22 in 4318) [ClassicSimilarity], result of:
            0.020547204 = score(doc=4318,freq=2.0), product of:
              0.17702371 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050551776 = queryNorm
              0.116070345 = fieldWeight in 4318, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=4318)
      0.5 = coord(1/2)
    
    Content
    Wegen der Klagen in USA ruhen die Scan-Aktivitäten von Google in den Bibliotheken. Bis November werde man keine Bücher digitalisieren, für die noch Urheberrechte bestehen, teilte das Unternehmen mit. Im Übrigen könnten Interessenten nur einige Seiten des Buches einsehen. Sämtliche Kopier-, Speicherund Druckfunktionen seien deaktiviert. In der Branche ist man dennoch skeptisch: Bei Reiseführern, Sachbüchern oder Lexika seien solche Detailinfos schon ausreichend. In Europa geht nach den Worten von Jean-Noel Jeanneney, dem Präsidenten der französischen Nationalbibliothek, die Angst vor einer Monopolisierung der digitalen Information in den Händen eines kommerziellen amerikanischen Unternehmens um. Wobei Jeanneney bei der Frankfurter Buchmesse die Digitalisierung von Büchern generell einen wichtigen Schritt nannte. Und so gibt es seit diesem Jahr in der Europäischen Union Bestrebungen, eine Alternative zum Bibliotheksprogramm von "Google Print" auf den Weg zu bringen. "Quaero" lautet der Titel des Projekts, mit dem europäisches Schriftgut in den jeweiligen Landessprachen online zur Verfügung gestellt werden soll. Insider räumen Quaero nur geringe Chancen ein. Die öffentlichen Mittel seien zu bescheiden, als dass sie gegen das Kapital von Google, das in sein Printprojekt 200 Millionen Dollar investiere, etwas ausrichten könnten. Der Börsenverein des Deutschen Buchhandels hat längst eine eigene Taskforce Volltext" einberufen, die an einer brancheneigenen Lösung für den deutschsprachigen Raum feilt. Die Verlage möchten die Hoheit über das Urheberrecht und die Buchinhalte behalten, indem die Daten auf dem eigenen Server verbleiben und nur über Links der Suchmaschine verfügbar gemacht werden. Auf dem Sektor tummelt sich seit fünf Jahren bereits ein deutsches Unternehmen. Die Berliner Midvox GmbH führt den elektronischen Katalog Innensuche" mit derzeit 70.000 deutschsprachigen Fachbüchern, der über Webseiten von Online-Händlern genutzt werden kann. Er dient nur der Orientierung. In den Büchern kann nicht geblättert werden. Das geistige Eigentum der Autoren bleibt geschützt."
    Date
    3. 5.1997 8:44:22
  19. Puschwadt, O.: Auf Platz eins gegoogelt : Erfolgsgeschichte - Von der Garagenfirma zum Marktführer (2005) 0.04
    0.0383744 = product of:
      0.0767488 = sum of:
        0.0767488 = sum of:
          0.056201596 = weight(_text_:200 in 5177) [ClassicSimilarity], result of:
            0.056201596 = score(doc=5177,freq=2.0), product of:
              0.2927719 = queryWeight, product of:
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.050551776 = queryNorm
              0.19196376 = fieldWeight in 5177, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.0234375 = fieldNorm(doc=5177)
          0.020547204 = weight(_text_:22 in 5177) [ClassicSimilarity], result of:
            0.020547204 = score(doc=5177,freq=2.0), product of:
              0.17702371 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050551776 = queryNorm
              0.116070345 = fieldWeight in 5177, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=5177)
      0.5 = coord(1/2)
    
    Content
    "Thomas Schick ist begeisterter Internetsurfer. Er nutzt das World Wide Web mehrmals täglich - sowohl beruflich als auch privat. Ich hole mir die Informationen, die ich brauche, fast nur noch aus dem Netz", so der 30-jährige Düsseldorfer. Seine Haupt-Recherchequelle ist dabei die Suchmaschine Google. "Dort finde ich einfach alles", lautet sein kurzes Statement. Wie Schick greift der Großteil der Internetnutzer weltweit auf die mittlerweile beliebteste und meist genutzte Suchmaschine zu. 200 Millionen Abrufe täglich wurden im Jähr 2004 unter www.google.com und den mehr als 85 internationalen Ablegern registriert. Sie rangiert damit weit vor den Suchmaschinen von Yahoo oder Microsoft. Angeblich sollen mehr als 70 Prozent aller Anfragen im Internet über Google laufen. Am 7. September 1998 ging die von den beiden Studenten Larry Page und Sergey Brin entwickelte Suchmaschine als Nachfolger ihrer Suchsoftware Pagerank ins Netz. Mittlerweile gehört ihre einstige Garagen-Firma mit über 3000 Mitarbeitern zu den bekanntesten Marken weltweit und ist seit August 2004 sogar an der Börse notiert. Laut "Financial Times" gehört Google - gemessen am Börsenwert - inzwischen zu den hundert größten Unternehmen weltweit. Der Name Google leitet sich von dem mathematischen Begriff Googol ab, der für eine 1 gefolgt von 100 Nullen steht - also ein riesiger Wert. Hiermit soll auf die immense Zahl von Webseiten, auf die Google zugreift, bereits im Namen hingewiesen werden. In Wirklichkeit greift Google allerdings nach Angaben des Computerverlages heise.de "nur" auf etwas mehr als acht Milliarden Seiten zu. Bei geschätzten 500 Milliarden Webseiten Weltweit macht sich diese Zahl dann doch recht klein aus. Dennoch umfasst die Google-Suche weit mehr als die anderer Suchmaschinen: Doch nicht nur eine allgemeine Text-Suche ist bei Google möglich. Es gibt auch Funktionen, die nach Bildern suchen oder auf Wörterbücher, Fahrpläne der Bahn, Stadtpläne und Aktienkurse zugreifen. Auch die Shopping-Suchmaschine Froogle oder der Freemail-Dienst Gmail gehören mittlerweile zum Angebot. Die Omnipräsenz von Google in Deutschland lässt sich allein schon daran ablesen, dass der Begriff "googeln" sogar Einzug in den guten alten Duden gefunden hat. Dort findet man den Eintrag seit der 23. Auflage (2004). "Googeln" bedeutet laut Duden im Allgemeinen etwas im Internet suchen und im Besonderen die Suche in der Suchmaschine Google. Die Marke Google ist also zu einem Synonym für Internetrecherche schlechthin geworden. Dem minimalistischen Design der Startseite ist Google bis heute treu geblieben. An bestimmten Tagen oder zu Ereignissen - so zum Beispiel an Weihnachten oder zu den Olympischen Spielen - wird das Logo allerdings zum Thema des Tages passend verändert. Diese so genannten Google Doodles ersetzen dann das normale Logo. Sie werden alle von dem Koreaner Dennis Hwang entworfen.
    Date
    3. 5.1997 8:44:22
  20. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.04
    0.0383744 = product of:
      0.0767488 = sum of:
        0.0767488 = sum of:
          0.056201596 = weight(_text_:200 in 1833) [ClassicSimilarity], result of:
            0.056201596 = score(doc=1833,freq=2.0), product of:
              0.2927719 = queryWeight, product of:
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.050551776 = queryNorm
              0.19196376 = fieldWeight in 1833, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7915254 = idf(docFreq=366, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1833)
          0.020547204 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
            0.020547204 = score(doc=1833,freq=2.0), product of:
              0.17702371 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.050551776 = queryNorm
              0.116070345 = fieldWeight in 1833, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1833)
      0.5 = coord(1/2)
    
    Content
    Enthält u.a. die Beiträge (Dokumentarische Aspekte): Günter Perers/Volker Gaese: Das DocCat-System in der Textdokumentation von Gr+J (Weimar 2000) Thomas Gerick: Finden statt suchen. Knowledge Retrieval in Wissensbanken. Mit organisiertem Wissen zu mehr Erfolg (Weimar 2000) Winfried Gödert: Aufbereitung und Rezeption von Information (Weimar 2000) Elisabeth Damen: Klassifikation als Ordnungssystem im elektronischen Pressearchiv (Köln 2001) Clemens Schlenkrich: Aspekte neuer Regelwerksarbeit - Multimediales Datenmodell für ARD und ZDF (Köln 2001) Josef Wandeler: Comprenez-vous only Bahnhof'? - Mehrsprachigkeit in der Mediendokumentation (Köln 200 1)
    Date
    11. 5.2008 19:49:22

Languages

Types

  • a 1159
  • m 190
  • el 68
  • s 55
  • b 26
  • x 14
  • i 10
  • n 2
  • r 1
  • More… Less…

Themes

Subjects

Classifications