Search (37 results, page 1 of 2)

  • × theme_ss:"Data Mining"
  1. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.00
    0.004858012 = product of:
      0.026719064 = sum of:
        0.017843148 = weight(_text_:internet in 2403) [ClassicSimilarity], result of:
          0.017843148 = score(doc=2403,freq=4.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.18451498 = fieldWeight in 2403, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=2403)
        0.008875917 = product of:
          0.017751833 = sum of:
            0.017751833 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
              0.017751833 = score(doc=2403,freq=2.0), product of:
                0.11470523 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0327558 = queryNorm
                0.15476047 = fieldWeight in 2403, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2403)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
  2. Drees, B.: Text und data mining : Herausforderungen und Möglichkeiten für Bibliotheken (2016) 0.00
    0.004705495 = product of:
      0.051760446 = sum of:
        0.051760446 = weight(_text_:bibliothek in 3952) [ClassicSimilarity], result of:
          0.051760446 = score(doc=3952,freq=4.0), product of:
            0.13447993 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0327558 = queryNorm
            0.38489348 = fieldWeight in 3952, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=3952)
      0.09090909 = coord(1/11)
    
    Content
    Vgl.: http://journals.ub.uni-heidelberg.de/index.php/bibliothek/article/view/33691/pdf.
    Source
    Perspektive Bibliothek. 5(2016) H.1, S.49-73
  3. Jäger, L.: Von Big Data zu Big Brother (2018) 0.00
    0.0039078053 = product of:
      0.021492928 = sum of:
        0.012617011 = weight(_text_:internet in 5234) [ClassicSimilarity], result of:
          0.012617011 = score(doc=5234,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.1304718 = fieldWeight in 5234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5234)
        0.008875917 = product of:
          0.017751833 = sum of:
            0.017751833 = weight(_text_:22 in 5234) [ClassicSimilarity], result of:
              0.017751833 = score(doc=5234,freq=2.0), product of:
                0.11470523 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0327558 = queryNorm
                0.15476047 = fieldWeight in 5234, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5234)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    1983 bewegte ein einziges Thema die gesamte Bundesrepublik: die geplante Volkszählung. Jeder Haushalt in Westdeutschland sollte Fragebögen mit 36 Fragen zur Wohnsituation, den im Haushalt lebenden Personen und über ihre Einkommensverhältnisse ausfüllen. Es regte sich massiver Widerstand, hunderte Bürgerinitiativen formierten sich im ganzen Land gegen die Befragung. Man wollte nicht "erfasst" werden, die Privatsphäre war heilig. Es bestand die (berechtigte) Sorge, dass die Antworten auf den eigentlich anonymisierten Fragebögen Rückschlüsse auf die Identität der Befragten zulassen. Das Bundesverfassungsgericht gab den Klägern gegen den Zensus Recht: Die geplante Volkszählung verstieß gegen den Datenschutz und damit auch gegen das Grundgesetz. Sie wurde gestoppt. Nur eine Generation später geben wir sorglos jedes Mal beim Einkaufen die Bonuskarte der Supermarktkette heraus, um ein paar Punkte für ein Geschenk oder Rabatte beim nächsten Einkauf zu sammeln. Und dabei wissen wir sehr wohl, dass der Supermarkt damit unser Konsumverhalten bis ins letzte Detail erfährt. Was wir nicht wissen, ist, wer noch Zugang zu diesen Daten erhält. Deren Käufer bekommen nicht nur Zugriff auf unsere Einkäufe, sondern können über sie auch unsere Gewohnheiten, persönlichen Vorlieben und Einkommen ermitteln. Genauso unbeschwert surfen wir im Internet, googeln und shoppen, mailen und chatten. Google, Facebook und Microsoft schauen bei all dem nicht nur zu, sondern speichern auf alle Zeiten alles, was wir von uns geben, was wir einkaufen, was wir suchen, und verwenden es für ihre eigenen Zwecke. Sie durchstöbern unsere E-Mails, kennen unser persönliches Zeitmanagement, verfolgen unseren momentanen Standort, wissen um unsere politischen, religiösen und sexuellen Präferenzen (wer kennt ihn nicht, den Button "an Männern interessiert" oder "an Frauen interessiert"?), unsere engsten Freunde, mit denen wir online verbunden sind, unseren Beziehungsstatus, welche Schule wir besuchen oder besucht haben und vieles mehr.
    Date
    22. 1.2018 11:33:49
  4. Schwartz, D.: Graphische Datenanalyse für digitale Bibliotheken : Leistungs- und Funktionsumfang moderner Analyse- und Visualisierungsinstrumente (2006) 0.00
    0.0038818356 = product of:
      0.04270019 = sum of:
        0.04270019 = weight(_text_:bibliothek in 30) [ClassicSimilarity], result of:
          0.04270019 = score(doc=30,freq=2.0), product of:
            0.13447993 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0327558 = queryNorm
            0.31752092 = fieldWeight in 30, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=30)
      0.09090909 = coord(1/11)
    
    Abstract
    Das World Wide Web stellt umfangreiche Datenmengen zur Verfügung. Für den Benutzer wird es zunehmend schwieriger, diese Datenmengen zu sichten, zu bewerten und die relevanten Daten herauszufiltern. Einen Lösungsansatz für diese Problemstellung bieten Visualisierungsinstrumente, mit deren Hilfe Rechercheergebnisse nicht mehr ausschließlich über textbasierte Dokumentenlisten, sondern über Symbole, Icons oder graphische Elemente dargestellt werden. Durch geeignete Visualisierungstechniken können Informationsstrukturen in großen Datenmengen aufgezeigt werden. Informationsvisualisierung ist damit ein Instrument, um Rechercheergebnisse in einer digitalen Bibliothek zu strukturieren und relevante Daten für den Benutzer leichter auffindbar zu machen.
  5. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.00
    0.0036435088 = product of:
      0.020039298 = sum of:
        0.01338236 = weight(_text_:internet in 1833) [ClassicSimilarity], result of:
          0.01338236 = score(doc=1833,freq=4.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.13838623 = fieldWeight in 1833, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.0066569378 = product of:
          0.0133138755 = sum of:
            0.0133138755 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
              0.0133138755 = score(doc=1833,freq=2.0), product of:
                0.11470523 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0327558 = queryNorm
                0.116070345 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
    Date
    11. 5.2008 19:49:22
  6. Search tools (1997) 0.00
    0.0028386824 = product of:
      0.031225506 = sum of:
        0.031225506 = weight(_text_:internet in 3834) [ClassicSimilarity], result of:
          0.031225506 = score(doc=3834,freq=4.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.32290122 = fieldWeight in 3834, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3834)
      0.09090909 = coord(1/11)
    
    Abstract
    Offers brief accounts of Internet search tools. Covers the Lycos revamp; the new navigation service produced jointly by Excite and Netscape, delivering a language specific, locally relevant Web guide for Japan, Germany, France, the UK and Australia; InfoWatcher, a combination offline browser, search engine and push product from Carvelle Inc., USA; Alexa by Alexa Internet and WBI from IBM which are free and provide users with information on how others have used the Web sites which they are visiting; and Concept Explorer from Knowledge Discovery Systems, Inc., California which performs data mining from the Web, Usenet groups, MEDLINE and the US Patent and Trademark Office patent abstracts
  7. Chowdhury, G.G.: Template mining for information extraction from digital documents (1999) 0.00
    0.0028241556 = product of:
      0.03106571 = sum of:
        0.03106571 = product of:
          0.06213142 = sum of:
            0.06213142 = weight(_text_:22 in 4577) [ClassicSimilarity], result of:
              0.06213142 = score(doc=4577,freq=2.0), product of:
                0.11470523 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0327558 = queryNorm
                0.5416616 = fieldWeight in 4577, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4577)
          0.5 = coord(1/2)
      0.09090909 = coord(1/11)
    
    Date
    2. 4.2000 18:01:22
  8. KDD : techniques and applications (1998) 0.00
    0.0024207048 = product of:
      0.026627751 = sum of:
        0.026627751 = product of:
          0.053255502 = sum of:
            0.053255502 = weight(_text_:22 in 6783) [ClassicSimilarity], result of:
              0.053255502 = score(doc=6783,freq=2.0), product of:
                0.11470523 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0327558 = queryNorm
                0.46428138 = fieldWeight in 6783, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6783)
          0.5 = coord(1/2)
      0.09090909 = coord(1/11)
    
    Footnote
    A special issue of selected papers from the Pacific-Asia Conference on Knowledge Discovery and Data Mining (PAKDD'97), held Singapore, 22-23 Feb 1997
  9. Tiefschürfen in Datenbanken (2002) 0.00
    0.002294002 = product of:
      0.025234021 = sum of:
        0.025234021 = weight(_text_:internet in 996) [ClassicSimilarity], result of:
          0.025234021 = score(doc=996,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.2609436 = fieldWeight in 996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=996)
      0.09090909 = coord(1/11)
    
    Abstract
    Ein Einkauf im Supermarkt, ein Telefongespräch, ein Klick im Internet: Die Spuren solcher Allerweltsaktionen häufen sich zu Datengebirgen ungeheuren Ausmaßes. Darin noch das Wesentlich - was immer das sein mag - zu finden, ist die Aufgabe des noch jungen Wissenschaftszweiges Data Mining, der mit offiziellem Namen "Wissensentdeckung in Datenbanken" heißt
  10. Derek Doran, D.; Gokhale, S.S.: ¬A classification framework for web robots (2012) 0.00
    0.002294002 = product of:
      0.025234021 = sum of:
        0.025234021 = weight(_text_:internet in 505) [ClassicSimilarity], result of:
          0.025234021 = score(doc=505,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.2609436 = fieldWeight in 505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=505)
      0.09090909 = coord(1/11)
    
    Theme
    Internet
  11. Nohr, H.: Big Data im Lichte der EU-Datenschutz-Grundverordnung (2017) 0.00
    0.002294002 = product of:
      0.025234021 = sum of:
        0.025234021 = weight(_text_:internet in 4076) [ClassicSimilarity], result of:
          0.025234021 = score(doc=4076,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.2609436 = fieldWeight in 4076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=4076)
      0.09090909 = coord(1/11)
    
    Source
    JurPC: Internet-Zeitschrift für Rechtsinformatik und Informationsrecht, [http://www.jurpc.de/jurpc/show?id=20170111]
  12. Lihui, C.; Lian, C.W.: Using Web structure and summarisation techniques for Web content mining (2005) 0.00
    0.0020276306 = product of:
      0.022303935 = sum of:
        0.022303935 = weight(_text_:internet in 1046) [ClassicSimilarity], result of:
          0.022303935 = score(doc=1046,freq=4.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.23064373 = fieldWeight in 1046, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1046)
      0.09090909 = coord(1/11)
    
    Abstract
    The dynamic nature and size of the Internet can result in difficulty finding relevant information. Most users typically express their information need via short queries to search engines and they often have to physically sift through the search results based on relevance ranking set by the search engines, making the process of relevance judgement time-consuming. In this paper, we describe a novel representation technique which makes use of the Web structure together with summarisation techniques to better represent knowledge in actual Web Documents. We named the proposed technique as Semantic Virtual Document (SVD). We will discuss how the proposed SVD can be used together with a suitable clustering algorithm to achieve an automatic content-based categorization of similar Web Documents. The auto-categorization facility as well as a "Tree-like" Graphical User Interface (GUI) for post-retrieval document browsing enhances the relevance judgement process for Internet users. Furthermore, we will introduce how our cluster-biased automatic query expansion technique can be used to overcome the ambiguity of short queries typically given by users. We will outline our experimental design to evaluate the effectiveness of the proposed SVD for representation and present a prototype called iSEARCH (Intelligent SEarch And Review of Cluster Hierarchy) for Web content mining. Our results confirm, quantify and extend previous research using Web structure and summarisation techniques, introducing novel techniques for knowledge representation to enhance Web content mining.
  13. Huvila, I.: Mining qualitative data on human information behaviour from the Web (2010) 0.00
    0.0020072516 = product of:
      0.022079768 = sum of:
        0.022079768 = weight(_text_:internet in 4676) [ClassicSimilarity], result of:
          0.022079768 = score(doc=4676,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.22832564 = fieldWeight in 4676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4676)
      0.09090909 = coord(1/11)
    
    Theme
    Internet
  14. Kong, S.; Ye, F.; Feng, L.; Zhao, Z.: Towards the prediction problems of bursting hashtags on Twitter (2015) 0.00
    0.0020072516 = product of:
      0.022079768 = sum of:
        0.022079768 = weight(_text_:internet in 2338) [ClassicSimilarity], result of:
          0.022079768 = score(doc=2338,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.22832564 = fieldWeight in 2338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2338)
      0.09090909 = coord(1/11)
    
    Theme
    Internet
  15. Heyer, G.; Läuter, M.; Quasthoff, U.; Wolff, C.: Texttechnologische Anwendungen am Beispiel Text Mining (2000) 0.00
    0.0017205015 = product of:
      0.018925516 = sum of:
        0.018925516 = weight(_text_:internet in 5565) [ClassicSimilarity], result of:
          0.018925516 = score(doc=5565,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.1957077 = fieldWeight in 5565, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=5565)
      0.09090909 = coord(1/11)
    
    Abstract
    Die zunehmende Menge von Informationen und deren weltweite Verfügbarkeit auf der Basis moderner Internet Technologie machen es erforderlich, Informationen nach inhaltlichen Kriterien zu strukturieren und zu bewerten sowie nach inhaltlichen Kriterien weiter zu verarbeiten. Vom Standpunkt des Benutzers aus sind dabei folgende Fälle zu unterscheiden: Handelt es sich bei den gesuchten Informationen um strukturierle Daten (z.B. in einer SQL-Datenbank) oder unstrukturierte Daten (z.B. grosse Texte)? Ist bekannt, welche Daten benötigt werden und wie sie zu finden sind? Oder ist vor dein Zugriff auf die Daten noch nicht bekannt welche Ergebnisse erwartet werden?
  16. Fenstermacher, K.D.; Ginsburg, M.: Client-side monitoring for Web mining (2003) 0.00
    0.0017205015 = product of:
      0.018925516 = sum of:
        0.018925516 = weight(_text_:internet in 1611) [ClassicSimilarity], result of:
          0.018925516 = score(doc=1611,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.1957077 = fieldWeight in 1611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=1611)
      0.09090909 = coord(1/11)
    
    Theme
    Internet
  17. Ohly, H.P.: Bibliometric mining : added value from document analysis and retrieval (2008) 0.00
    0.0017205015 = product of:
      0.018925516 = sum of:
        0.018925516 = weight(_text_:internet in 2386) [ClassicSimilarity], result of:
          0.018925516 = score(doc=2386,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.1957077 = fieldWeight in 2386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=2386)
      0.09090909 = coord(1/11)
    
    Abstract
    Bibliometrics is understood as statistical analysis of scientific structures and processes. The analyzed data result from information and administrative actions. The demand for quality judgments or the discovering of new structures and information means that Bibliometrics takes on the role of being exploratory and decision supporting. To the extent that it has acquired important features of Data Mining, the analysis of text and internet material can be viewed as an additional challenge. In the sense of an evaluative approach Bibliometrics can also be seen to apply inference procedures as well as navigation tools.
  18. Wu, K.J.; Chen, M.-C.; Sun, Y.: Automatic topics discovery from hyperlinked documents (2004) 0.00
    0.0017205015 = product of:
      0.018925516 = sum of:
        0.018925516 = weight(_text_:internet in 2563) [ClassicSimilarity], result of:
          0.018925516 = score(doc=2563,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.1957077 = fieldWeight in 2563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=2563)
      0.09090909 = coord(1/11)
    
    Abstract
    Topic discovery is an important means for marketing, e-Business and social science studies. As well, it can be applied to various purposes, such as identifying a group with certain properties and observing the emergence and diminishment of a certain cyber community. Previous topic discovery work (J.M. Kleinberg, Proceedings of the 9th Annual ACM-SIAM Symposium on Discrete Algorithms, San Francisco, California, p. 668) requires manual judgment of usefulness of outcomes and is thus incapable of handling the explosive growth of the Internet. In this paper, we propose the Automatic Topic Discovery (ATD) method, which combines a method of base set construction, a clustering algorithm and an iterative principal eigenvector computation method to discover the topics relevant to a given query without using manual examination. Given a query, ATD returns with topics associated with the query and top representative pages for each topic. Our experiments show that the ATD method performs better than the traditional eigenvector method in terms of computation time and topic discovery quality.
  19. Chen, H.; Chau, M.: Web mining : machine learning for Web applications (2003) 0.00
    0.0017205015 = product of:
      0.018925516 = sum of:
        0.018925516 = weight(_text_:internet in 4242) [ClassicSimilarity], result of:
          0.018925516 = score(doc=4242,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.1957077 = fieldWeight in 4242, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=4242)
      0.09090909 = coord(1/11)
    
    Theme
    Internet
  20. Leydesdorff, L.; Persson, O.: Mapping the geography of science : distribution patterns and networks of relations among cities and institutes (2010) 0.00
    0.0017205015 = product of:
      0.018925516 = sum of:
        0.018925516 = weight(_text_:internet in 3704) [ClassicSimilarity], result of:
          0.018925516 = score(doc=3704,freq=2.0), product of:
            0.09670297 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0327558 = queryNorm
            0.1957077 = fieldWeight in 3704, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=3704)
      0.09090909 = coord(1/11)
    
    Abstract
    Using Google Earth, Google Maps, and/or network visualization programs such as Pajek, one can overlay the network of relations among addresses in scientific publications onto the geographic map. The authors discuss the pros and cons of various options, and provide software (freeware) for bridging existing gaps between the Science Citation Indices (Thomson Reuters) and Scopus (Elsevier), on the one hand, and these various visualization tools on the other. At the level of city names, the global map can be drawn reliably on the basis of the available address information. At the level of the names of organizations and institutes, there are problems of unification both in the ISI databases and with Scopus. Pajek enables a combination of visualization and statistical analysis, whereas the Google Maps and its derivatives provide superior tools on the Internet.

Languages

  • e 24
  • d 13

Types