Search (1349 results, page 1 of 68)

  • × year_i:[2000 TO 2010}
  1. Graff, B.: Microsoft Encarta : Goethe höret die Signale (2000) 0.17
    0.1677566 = product of:
      0.3355132 = sum of:
        0.3355132 = sum of:
          0.25379756 = weight(_text_:plus in 4751) [ClassicSimilarity], result of:
            0.25379756 = score(doc=4751,freq=2.0), product of:
              0.3101809 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.05026075 = queryNorm
              0.8182243 = fieldWeight in 4751, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.09375 = fieldNorm(doc=4751)
          0.08171564 = weight(_text_:22 in 4751) [ClassicSimilarity], result of:
            0.08171564 = score(doc=4751,freq=2.0), product of:
              0.17600457 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05026075 = queryNorm
              0.46428138 = fieldWeight in 4751, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=4751)
      0.5 = coord(1/2)
    
    Abstract
    Rezension zur Microsoft Encarta Plus 2000
    Source
    Online Mitteilungen. 2000, Nr.66, S.22-25 [=Mitteilungen VÖB 53(2000) H.1]
  2. Medeiros, N.: Metadata : semantics plus structure plus syntax (2000) 0.12
    0.11964132 = product of:
      0.23928264 = sum of:
        0.23928264 = product of:
          0.47856528 = sum of:
            0.47856528 = weight(_text_:plus in 3899) [ClassicSimilarity], result of:
              0.47856528 = score(doc=3899,freq=4.0), product of:
                0.3101809 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.05026075 = queryNorm
                1.5428586 = fieldWeight in 3899, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.125 = fieldNorm(doc=3899)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  3. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.10
    0.10025631 = sum of:
      0.0798274 = product of:
        0.23948218 = sum of:
          0.23948218 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
            0.23948218 = score(doc=562,freq=2.0), product of:
              0.4261112 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.05026075 = queryNorm
              0.56201804 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.33333334 = coord(1/3)
      0.02042891 = product of:
        0.04085782 = sum of:
          0.04085782 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
            0.04085782 = score(doc=562,freq=2.0), product of:
              0.17600457 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05026075 = queryNorm
              0.23214069 = fieldWeight in 562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=562)
        0.5 = coord(1/2)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  4. Kilgour, F.G.; Moran, B.B.: Surname plus recallable title word searches for known items by scholars (2000) 0.06
    0.05982066 = product of:
      0.11964132 = sum of:
        0.11964132 = product of:
          0.23928264 = sum of:
            0.23928264 = weight(_text_:plus in 4296) [ClassicSimilarity], result of:
              0.23928264 = score(doc=4296,freq=4.0), product of:
                0.3101809 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.05026075 = queryNorm
                0.7714293 = fieldWeight in 4296, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4296)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    This experiment searches an online library catalog employing author surnames, plus title words of books in citations of 8 scholarly works whose authors selected the title words used as being recallable. Searches comprising surname together with two recallable title words, or one if only one was available, yielded a single-screen miniature catalog (minicat) 99.0% of the time
  5. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.06
    0.055918865 = product of:
      0.11183773 = sum of:
        0.11183773 = sum of:
          0.08459918 = weight(_text_:plus in 3284) [ClassicSimilarity], result of:
            0.08459918 = score(doc=3284,freq=2.0), product of:
              0.3101809 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.05026075 = queryNorm
              0.27274144 = fieldWeight in 3284, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.03125 = fieldNorm(doc=3284)
          0.02723855 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
            0.02723855 = score(doc=3284,freq=2.0), product of:
              0.17600457 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05026075 = queryNorm
              0.15476047 = fieldWeight in 3284, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3284)
      0.5 = coord(1/2)
    
    Abstract
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
    Date
    22. 1.2010 14:41:24
  6. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.05
    0.05321826 = product of:
      0.10643652 = sum of:
        0.10643652 = product of:
          0.31930956 = sum of:
            0.31930956 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.31930956 = score(doc=140,freq=2.0), product of:
                0.4261112 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05026075 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  7. Greisdorf, H.; O'Connor, B.: Nodes of topicality modeling user notions of on topic documents (2003) 0.05
    0.05287449 = product of:
      0.10574898 = sum of:
        0.10574898 = product of:
          0.21149796 = sum of:
            0.21149796 = weight(_text_:plus in 5175) [ClassicSimilarity], result of:
              0.21149796 = score(doc=5175,freq=8.0), product of:
                0.3101809 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.05026075 = queryNorm
                0.6818536 = fieldWeight in 5175, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5175)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Griesdorf and O'Connor attempt to determine the aspects of a retrieved item that provide a questioner with evidence that the item is in fact on the topic searched independent of its relevance. To this end they collect data from 32 participants, 11 from the business community as well as 21 doctoral students at the University of North Texas each of whom were asked to state if they considered material that approaches a topic in each of 14 specific manners as " on topic" or "off topic." Chi-square indicates that the observed values are significantly different from expected values and the chi-square residuals for on topic judgements exceed plus or minus two in eight cases and plus two in five cases. The positive values which indicate a percentage of response greater than that from chance suggest that documents considered topical are only related to the problem at hand, contain terms that were in the query, and describe, explain or expand the topic of the query. The chi-square residuals for off topic judgements exceed plus or minus two in ten cases and plus two in four cases. The positive values suggest that documents considered not topical exhibit a contrasting, contrary, or confounding point of view, or merely spark curiosity. Such material might well be relevant, but is not judged topical. This suggests that topical appropriateness may best be achieved using the Bruza, et alia, left compositional monotonicity approach.
  8. Kilgour, F.G.: Known-item online searches employed by scholars using surnames plus first, or last, or first and last title words (2001) 0.05
    0.052343078 = product of:
      0.104686156 = sum of:
        0.104686156 = product of:
          0.20937231 = sum of:
            0.20937231 = weight(_text_:plus in 6932) [ClassicSimilarity], result of:
              0.20937231 = score(doc=6932,freq=4.0), product of:
                0.3101809 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.05026075 = queryNorm
                0.67500067 = fieldWeight in 6932, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6932)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    This experiment explores the effectiveness of retrieving the listing of a known-item book from the 3.6 million entry onine catalog at the library of the University of Michigan using various combinations of author's name plus first and last title words. The principal finding was that 98.9% of the time a 1 to 20 line miniature catalog (minicat) was displayed that contained either the entry sought or a not-in-database (NID) reply when the search comprised all three words.
  9. Krings, N.: Blick in Nachbars Garten : Google Earth - Faszinierende Satelliten-Bilder von allen Teilen der Erde (2006) 0.05
    0.04892901 = product of:
      0.09785802 = sum of:
        0.09785802 = sum of:
          0.07402429 = weight(_text_:plus in 4846) [ClassicSimilarity], result of:
            0.07402429 = score(doc=4846,freq=2.0), product of:
              0.3101809 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.05026075 = queryNorm
              0.23864876 = fieldWeight in 4846, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4846)
          0.023833731 = weight(_text_:22 in 4846) [ClassicSimilarity], result of:
            0.023833731 = score(doc=4846,freq=2.0), product of:
              0.17600457 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05026075 = queryNorm
              0.1354154 = fieldWeight in 4846, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4846)
      0.5 = coord(1/2)
    
    Content
    Wenn man die Betrachtungsebene bei Google Earth langsam kippt, wird sogar eine dreidimensionale Ansicht - teilweise echt, zum größten Teil aber vom Computer errechnet und künstlich wirkend - sichtbar. Und das schafft Google Earth mit Aufnahmen von einem einzigen Satelliten. Wer World Wind (den Dienst der US-Weltraumagentur Nasa) bemüht, kann je nach Gebiet auf unterschiedlich hoch auflösende Karten zurückgreifen. Das rund 20 Euro teure, leider sehr aufwändig zu installierende Programm NaSat verwendet Aufnahmen von diversen Nasa-Satelliten. Hiermit lassen sich beispielsweise ein Vulkanausbruch in der Südsee oder eine Feuersbrunst in Kalifornien beobachten. NaSat kann nahezu jeden Quadratkilometer der Erde abbilden und ist zudem mit Klicktel kompatibel, was bedeutet, dass in Klicktel gefundene Adressdaten in NaSat eingelesen und bis auf die Straße genau angezeigt werden können. Für Geographen ist interessant, dass man sich zusätzlich über Temperaturen und die Verteilung von Niederschlägen überall auf der Welt visuell informieren kann. Auch die Entdeckung beeindruckender Touristenziele wie den Kreml in Moskau, die Pyramiden von Gizeh oder die Villa von Bill Gates ist blitzschnell möglich. Google Earth hat als Anwendung, die ständig aktualisiert wird, den Vorteil, dass jeden Tag neue Daten den Blick auf die Erde interessanter machen. Und die Möglichkeiten sind noch lange nicht ausgereizt. So hat sich jetzt eine Initiative gefunden, die unter dem Motto "Deutschland muss schärfer werden" dafür sorgen möchte, dass zur Fußball-WM die Bereiche um die zwölf WM-Arenen höher aufgelöst ins Netz gestellt werden. Für Profis hat Google nachgelegt und bietet mit Earth Plus und Earth Pro zwei kostenpflichtige Versionen an. Unter anderem wurde GPS integriert. Daten des Ortungssystems können an Google übergeben werden."
    Date
    3. 5.1997 8:44:22
  10. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.05
    0.04656598 = product of:
      0.09313196 = sum of:
        0.09313196 = product of:
          0.27939588 = sum of:
            0.27939588 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.27939588 = score(doc=306,freq=2.0), product of:
                0.4261112 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05026075 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  11. Microsoft Encarta 2002 (2001) 0.05
    0.04533043 = product of:
      0.09066086 = sum of:
        0.09066086 = product of:
          0.18132173 = sum of:
            0.18132173 = weight(_text_:plus in 1723) [ClassicSimilarity], result of:
              0.18132173 = score(doc=1723,freq=12.0), product of:
                0.3101809 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.05026075 = queryNorm
                0.58456767 = fieldWeight in 1723, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1723)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am 11. Oktober kommt Encarta 2002. Das multimediale Lexikon wird in drei Versionen angeboten. Besonders die professionelle wird eine starke Anbindung ans Internet ermöglichen. Den Weltatlas gibt es nicht mehr für sich alleine. München (nja) - Neu in allen Versionen ist eine differenziertere Suchfunktion. Sie erlaubt auch die Suche nach Stichworten oder die Einschränkung auf bestimmte Bereiche. Die gegenüber der Standardversion umfangreichere 2002 Plus 3D-Reisen". Dabei können rekonstruierte antike Städte wie die Akropolis oder das Forum Romanum durchwandert werden. Daneben gibt es Links zu Radiostationen in vielen Ländern und zu Wetterdiensten vieler Hauptstädte der Welt. Noch enger mit dem Internet verknüpft ist die Version Professional. Sie bietet neben dem Inhalt der "Plus" eine Vorauswahl an 5.500 Links zu hochwertigen Sites zur Recherche. Ein neuer "InfoChecker" führt über Encarta Online zu umfangreichen Hilfen: Deutschwörterbuch, Wörterbuch Deutsch-Englisch/ Englisch-Deutsch und zahlreiche enzyklopädische Artikel. Außerdem ist die "Professional" ganz mit dem Encarta Weltatlas verknüpft, der nicht mehr als einzelnes Produkt zu haben sein wird! - Alleine die Professional gibt's auf DVD. Microsoft bietet allen Besitzern jeder älteren Version von Encarta ein besonderes Upgrade. Sie erhalten beim Kauf der "2002 Professional" einen Rabatt von 30 Euro. Das gilt auch für Besitzer der OEM-Versionen! Allerdings haben Käufer das Procedere selbst in die Wege zu leiten - die Händler übernehmen das nicht. Preise: Standard: 119 Mark Plus: 179 Mark Professional, inklusive Atlas: 249 Mark CHIP Online meint: Schnell noch die alte Version des Atlas' für 110 Mark ziehen, denn die ist ok! - Drei Programmversionen der Enzyklopädie geplant: Microsoft will die neue Version der Enzyklopädie Encarta Anfang Oktober in drei Versionen auf den deutschen Markt bringen. Als Neuerungen kann man durch virtuelle 3D-Welten reisen und eine verbesserte Suchfunktion verwenden. Die kleinste Edition stellt die normale Encarta 2002 dar, die nun 37.300 Artikel und 16.000 Medienelemente enthält. Als Neuerung steht nun eine erweiterte Suchfunktion bereit, die eine Schnell- und Stichwortsuche sowie eine erweiterte Suchfunktion mit Einschränkungsmöglichkeiten bietet. Ein neuer "InfoChecker" steht für Online-Tools wie ein Deutschwörterbuch, ein Deutsch-Englisch-Lexikon und weitere enzyklopädische Artikel von Encarta Online, die jetzt auch im Stichwortverzeichnis erscheinen. Etwas besser ausgestattet ist die Encarta Plus 2002, in der die neuen virtuellen 3D-Reisen enthalten sind. Damit können antike Stätten im dreidimensionalen Raum durchwandert werden, selbst wenn diese eigentlich zum Großteil zerstört sind. Mit 46.300 Artikeln stehen fast doppelt so viele Berichte zur Verfügung wie bei der Standard-Version, was durch 19.000 Multimedia-Elemente und 5.500 Internet-Adressen ergänzt wird. Die dritte Version der Encarta-Reihe, die Encarta Professional 2002, entspricht weitestgehend der Plus-Version und umfasst zusätzlich den Encarta-Weltatlas mit 1,8 Millionen Karteneinträgen. Ferner stehen hier 24.000 Multimedia-Elemente zur Wahl. Im Unterschied zu den beiden anderen Versionen will Microsoft die Professional-Version alternativ auch auf DVD und nicht nur auf CD anbieten. Die Encarta 2002 soll für Windows 98, Millennium, 2000 und XP Anfang Oktober in den Handel kommen und in der Standardversion 119,- DM kosten. Der Preis für die Plus-Variante beträgt 179,- DM, während die Professional-Version mit 249,- DM zu Buche schlägt. Da der Encarta-Weltatlas nicht mehr als Einzelversion erscheint, bietet Microsoft eine Update-Option mit einem Rabatt von 30,- Euro (knapp 60,- DM) beim Kauf der Encarta Professional 2002 an
  12. Khurshid, Z.: Analytical cataloging of full-text journal databases at a Middle East university (2001) 0.04
    0.04229959 = product of:
      0.08459918 = sum of:
        0.08459918 = product of:
          0.16919836 = sum of:
            0.16919836 = weight(_text_:plus in 5429) [ClassicSimilarity], result of:
              0.16919836 = score(doc=5429,freq=2.0), product of:
                0.3101809 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.05026075 = queryNorm
                0.5454829 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5429)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    With the availability of full-text journals in CD-ROM and aggregator databases, libraries need to provide bibliographic and online access to these titles through the OPAC. The article reviews the experience of the King Fahd University of Petroleum & Minerals Library in providing analytical cataloging to the journal-title level of full-text CD-ROM databases, including Business Periodicals Ondisc (BPO), IEEE/ IEE Electronic Library (IEL), Applied Science & Technology Plus (AS&TP), and Readers' Guide Abstracts (RGA).
  13. Papy, F.; Chauvin, S.: Au-delà de la transfiguration du catalogue : Le Visual... Catalog : Mort et transfiguration des catalogues (2005) 0.04
    0.04229959 = product of:
      0.08459918 = sum of:
        0.08459918 = product of:
          0.16919836 = sum of:
            0.16919836 = weight(_text_:plus in 177) [ClassicSimilarity], result of:
              0.16919836 = score(doc=177,freq=2.0), product of:
                0.3101809 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.05026075 = queryNorm
                0.5454829 = fieldWeight in 177, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0625 = fieldNorm(doc=177)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Les étudiants méconnaissent le fonctionnement de leur bibliothèque universitaire et sont victimes de l'abondance documentaire. De plus, les catalogues informatisés, au regard des autres vecteurs d'information électronique, apparaissent désormais comme archaïques. Au service commun de la documentation de l'Université Paris VIII, un outil expérimental complète l'Opac depuis octobre 2004 : le Visual... Catalog. Cette interface introduit l'hypertextualité et transpose graphiquement les données du catalogue.
  14. Tennis, J.T.: Epistemology, theory, and methodology in knowledge organization : toward a classification, metatheory, and research framework (2008) 0.04
    0.04229959 = product of:
      0.08459918 = sum of:
        0.08459918 = product of:
          0.16919836 = sum of:
            0.16919836 = weight(_text_:plus in 2132) [ClassicSimilarity], result of:
              0.16919836 = score(doc=2132,freq=2.0), product of:
                0.3101809 = queryWeight, product of:
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.05026075 = queryNorm
                0.5454829 = fieldWeight in 2132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1714344 = idf(docFreq=250, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2132)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    This paper proposes a preliminary classification of knowledge organization research, divided among epistemology, theory, and methodology plus three sphere of research: design, study, and critique. This work is situated in a metatheoretical framework, drawn from sociological thought. Example works are presented along with preliminary classification. The classification is then briefly described as a comparison tool which can be used to demonstrate overlap and divergence in cognate discourses of knowledge organization (such as ontology engineering).
  15. Siegle, J.: Programmabsturz : Immer mehr Internet-Zeitschriften stehen vor dem Aus - jüngstes Opfer ist das US-Magazin 'The Industry Standard' (2000) 0.04
    0.04193915 = product of:
      0.0838783 = sum of:
        0.0838783 = sum of:
          0.06344939 = weight(_text_:plus in 6494) [ClassicSimilarity], result of:
            0.06344939 = score(doc=6494,freq=2.0), product of:
              0.3101809 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.05026075 = queryNorm
              0.20455608 = fieldWeight in 6494, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0234375 = fieldNorm(doc=6494)
          0.02042891 = weight(_text_:22 in 6494) [ClassicSimilarity], result of:
            0.02042891 = score(doc=6494,freq=2.0), product of:
              0.17600457 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05026075 = queryNorm
              0.116070345 = fieldWeight in 6494, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=6494)
      0.5 = coord(1/2)
    
    Abstract
    Im April 1998 gegründet, etablierte sich die Zeitschrift schnell als das Sprachrohr der boomenden Netz-Welt. Schier unendlich schien der Fundus an Erfolgsgeschichten über die aufstrebende Internet-Szene. Die WerbeIndustrie bescherte dem jungen Verlagshaus binnen kürzester Zeit Anzeigenrekorde: Vergangenes Jahr konnte das WebBlatt rund 7 600 Anzeigenseiten verkaufen. Das Unternehmen erwirtschaftete damit ein Plus von 140 Millionen US-Dollar und überschritt innerhalb von nur drei Jahren die Geweinnschwelle - ein seltenes Kunststück im Magazin Geschäft. Brachnetypisch schmiss die San Franciscoer Redaktion dutzende opulente Partys. Zur Hochphase beschäftigte das Medienhaus immerhin rund 400 Mitarbeiter, darunter etwa 130 Redakteure. Im Oktober vergangenen Jahres wurde auch eine EuropaAusgabe gestartet, die von 60 Angestellten in London produziert wurde. Auch journalistisch wurde die Arbeit des Standard mehrfach ausgezeichnet. Mit dem Absturz der New Economy verdüsterten sich in jüngster Vergangenheit die Schlagzeilen in der Internet-Presse. Immer regelmäßiger berichtete die NetzPostille nun über Massenentlassungen, Pleiten, Pech und Pannen in der Dotcom-Industrie. Die Werbungstreibenden reagierten mit Etatstreichungen. Zudem gingen viele Standard-Anzeigenkunden aus dem Online-Lager pleite. Dasselbe Schicksal ereilt nun das Internet-Zentralorgan aus San Francisco. Nachdem seit Januar ein Verlust von 50 Millionen US-Dollar erwirtschaftet wurde, haben die Standar-Investoren um die Verlagsgruppe IDG (PC World, Macworld, Computerworld, Infoworld) den Stecker gezogen.
    Date
    17. 7.1996 9:33:22
  16. Lischka, K.: Spurensuche im Datenwust : Data-Mining-Software fahndet nach kriminellen Mitarbeitern, guten Kunden - und bald vielleicht auch nach Terroristen (2002) 0.04
    0.04193915 = product of:
      0.0838783 = sum of:
        0.0838783 = sum of:
          0.06344939 = weight(_text_:plus in 1178) [ClassicSimilarity], result of:
            0.06344939 = score(doc=1178,freq=2.0), product of:
              0.3101809 = queryWeight, product of:
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.05026075 = queryNorm
              0.20455608 = fieldWeight in 1178, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.1714344 = idf(docFreq=250, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1178)
          0.02042891 = weight(_text_:22 in 1178) [ClassicSimilarity], result of:
            0.02042891 = score(doc=1178,freq=2.0), product of:
              0.17600457 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05026075 = queryNorm
              0.116070345 = fieldWeight in 1178, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1178)
      0.5 = coord(1/2)
    
    Content
    "Ob man als Terrorist einen Anschlag gegen die Vereinigten Staaten plant, als Kassierer Scheine aus der Kasse unterschlägt oder für bestimmte Produkte besonders gerne Geld ausgibt - einen Unterschied macht Data-Mining-Software da nicht. Solche Programme analysieren riesige Daten- mengen und fällen statistische Urteile. Mit diesen Methoden wollen nun die For- scher des "Information Awaren in den Vereinigten Staaten Spuren von Terroristen in den Datenbanken von Behörden und privaten Unternehmen wie Kreditkartenfirmen finden. 200 Millionen Dollar umfasst der Jahresetat für die verschiedenen Forschungsprojekte. Dass solche Software in der Praxis funktioniert, zeigen die steigenden Umsätze der Anbieter so genannter Customer-Relationship-Management-Software. Im vergangenen Jahr ist das Potenzial für analytische CRM-Anwendungen laut dem Marktforschungsinstitut IDC weltweit um 22 Prozent gewachsen, bis zum Jahr 2006 soll es in Deutschland mit einem jährlichen Plus von 14,1 Prozent so weitergehen. Und das trotz schwacher Konjunktur - oder gerade deswegen. Denn ähnlich wie Data-Mining der USRegierung helfen soll, Terroristen zu finden, entscheiden CRM-Programme heute, welche Kunden für eine Firma profitabel sind. Und welche es künftig sein werden, wie Manuela Schnaubelt, Sprecherin des CRM-Anbieters SAP, beschreibt: "Die Kundenbewertung ist ein zentraler Bestandteil des analytischen CRM. Sie ermöglicht es Unternehmen, sich auf die für sie wichtigen und richtigen Kunden zu fokussieren. Darüber hinaus können Firmen mit speziellen Scoring- Verfahren ermitteln, welche Kunden langfristig in welchem Maße zum Unternehmenserfolg beitragen." Die Folgen der Bewertungen sind für die Betroffenen nicht immer positiv: Attraktive Kunden profitieren von individuellen Sonderangeboten und besonderer Zuwendung. Andere hängen vielleicht so lauge in der Warteschleife des Telefonservice, bis die profitableren Kunden abgearbeitet sind. So könnte eine praktische Umsetzung dessen aussehen, was SAP-Spreche-rin Schnaubelt abstrakt beschreibt: "In vielen Unternehmen wird Kundenbewertung mit der klassischen ABC-Analyse durchgeführt, bei der Kunden anhand von Daten wie dem Umsatz kategorisiert werden. A-Kunden als besonders wichtige Kunden werden anders betreut als C-Kunden." Noch näher am geplanten Einsatz von Data-Mining zur Terroristenjagd ist eine Anwendung, die heute viele Firmen erfolgreich nutzen: Sie spüren betrügende Mitarbeiter auf. Werner Sülzer vom großen CRM-Anbieter NCR Teradata beschreibt die Möglichkeiten so: "Heute hinterlässt praktisch jeder Täter - ob Mitarbeiter, Kunde oder Lieferant - Datenspuren bei seinen wirtschaftskriminellen Handlungen. Es muss vorrangig darum gehen, einzelne Spuren zu Handlungsmustern und Täterprofilen zu verdichten. Das gelingt mittels zentraler Datenlager und hoch entwickelter Such- und Analyseinstrumente." Von konkreten Erfolgen sprich: Entlas-sungen krimineller Mitarbeiter-nach Einsatz solcher Programme erzählen Unternehmen nicht gerne. Matthias Wilke von der "Beratungsstelle für Technologiefolgen und Qualifizierung" (BTQ) der Gewerkschaft Verdi weiß von einem Fall 'aus der Schweiz. Dort setzt die Handelskette "Pick Pay" das Programm "Lord Lose Prevention" ein. Zwei Monate nach Einfüh-rung seien Unterschlagungen im Wert von etwa 200 000 Franken ermittelt worden. Das kostete mehr als 50 verdächtige Kassiererinnen und Kassierer den Job.
  17. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.04
    0.0399137 = product of:
      0.0798274 = sum of:
        0.0798274 = product of:
          0.23948218 = sum of:
            0.23948218 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.23948218 = score(doc=2918,freq=2.0), product of:
                0.4261112 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05026075 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  18. RAK-NBM : Interpretationshilfe zu NBM 3b,3 (2000) 0.04
    0.038521126 = product of:
      0.07704225 = sum of:
        0.07704225 = product of:
          0.1540845 = sum of:
            0.1540845 = weight(_text_:22 in 4362) [ClassicSimilarity], result of:
              0.1540845 = score(doc=4362,freq=4.0), product of:
                0.17600457 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05026075 = queryNorm
                0.8754574 = fieldWeight in 4362, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4362)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2000 19:22:27
  19. Diederichs, A.: Wissensmanagement ist Macht : Effektiv und kostenbewußt arbeiten im Informationszeitalter (2005) 0.04
    0.038521126 = product of:
      0.07704225 = sum of:
        0.07704225 = product of:
          0.1540845 = sum of:
            0.1540845 = weight(_text_:22 in 3211) [ClassicSimilarity], result of:
              0.1540845 = score(doc=3211,freq=4.0), product of:
                0.17600457 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05026075 = queryNorm
                0.8754574 = fieldWeight in 3211, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3211)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.2005 9:16:22
  20. Hawking, D.; Robertson, S.: On collection size and retrieval effectiveness (2003) 0.04
    0.038521126 = product of:
      0.07704225 = sum of:
        0.07704225 = product of:
          0.1540845 = sum of:
            0.1540845 = weight(_text_:22 in 4109) [ClassicSimilarity], result of:
              0.1540845 = score(doc=4109,freq=4.0), product of:
                0.17600457 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05026075 = queryNorm
                0.8754574 = fieldWeight in 4109, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4109)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    14. 8.2005 14:22:22

Languages

Types

  • a 1125
  • m 152
  • el 67
  • s 52
  • b 26
  • x 14
  • i 9
  • n 2
  • r 1
  • More… Less…

Themes

Subjects

Classifications