Search (10 results, page 1 of 1)

  • × classification_ss:"ST 515"
  1. Manning, C.D.; Raghavan, P.; Schütze, H.: Introduction to information retrieval (2008) 0.00
    0.0041491026 = product of:
      0.029043717 = sum of:
        0.029043717 = product of:
          0.07260929 = sum of:
            0.056729782 = weight(_text_:retrieval in 4041) [ClassicSimilarity], result of:
              0.056729782 = score(doc=4041,freq=30.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.51775444 = fieldWeight in 4041, product of:
                  5.477226 = tf(freq=30.0), with freq of:
                    30.0 = termFreq=30.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4041)
            0.015879504 = weight(_text_:system in 4041) [ClassicSimilarity], result of:
              0.015879504 = score(doc=4041,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13919188 = fieldWeight in 4041, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4041)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Class-tested and coherent, this textbook teaches information retrieval, including web search, text classification, and text clustering from basic concepts. Ideas are explained using examples and figures, making it perfect for introductory courses in information retrieval for advanced undergraduates and graduate students. Slides and additional exercises are available for lecturers. - This book provides what Salton and Van Rijsbergen both failed to achieve. Even more important, unlike some other books in IR, the authors appear to care about making the theory as accessible as possible to the reader, on occasion including short primers to certain topics or choosing to explain difficult concepts using simplified approaches. Its coverage [is] excellent, the quality of writing high and I was surprised how much I learned from reading it. I think the online resources are impressive.
    Content
    Inhalt: Boolean retrieval - The term vocabulary & postings lists - Dictionaries and tolerant retrieval - Index construction - Index compression - Scoring, term weighting & the vector space model - Computing scores in a complete search system - Evaluation in information retrieval - Relevance feedback & query expansion - XML retrieval - Probabilistic information retrieval - Language models for information retrieval - Text classification & Naive Bayes - Vector space classification - Support vector machines & machine learning on documents - Flat clustering - Hierarchical clustering - Matrix decompositions & latent semantic indexing - Web search basics - Web crawling and indexes - Link analysis Vgl. die digitale Fassung unter: http://nlp.stanford.edu/IR-book/pdf/irbookprint.pdf.
    LCSH
    Information retrieval
    RSWK
    Dokumentverarbeitung / Information Retrieval / Abfrageverarbeitung (GBV)
    Information Retrieval / Einführung (BVB)
    Subject
    Dokumentverarbeitung / Information Retrieval / Abfrageverarbeitung (GBV)
    Information Retrieval / Einführung (BVB)
    Information retrieval
  2. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.00
    0.0032748047 = product of:
      0.022923632 = sum of:
        0.022923632 = product of:
          0.057309076 = sum of:
            0.04142957 = weight(_text_:retrieval in 506) [ClassicSimilarity], result of:
              0.04142957 = score(doc=506,freq=16.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.37811437 = fieldWeight in 506, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
            0.015879504 = weight(_text_:system in 506) [ClassicSimilarity], result of:
              0.015879504 = score(doc=506,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13919188 = fieldWeight in 506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
    RSWK
    Information Retrieval / Ontologie <Wissensverarbeitung> / Wissensmanagement
    Subject
    Information Retrieval / Ontologie <Wissensverarbeitung> / Wissensmanagement
  3. Colomb, R.M.: Information spaces : the architecture of cyberspace (2002) 0.00
    0.0010462549 = product of:
      0.007323784 = sum of:
        0.007323784 = product of:
          0.03661892 = sum of:
            0.03661892 = weight(_text_:retrieval in 262) [ClassicSimilarity], result of:
              0.03661892 = score(doc=262,freq=8.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.33420905 = fieldWeight in 262, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=262)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    LCSH
    Information retrieval
    RSWK
    Information Retrieval / Lehrbuch
    Subject
    Information Retrieval / Lehrbuch
    Information retrieval
  4. Peters, I.: Folksonomies : indexing and retrieval in Web 2.0 (2009) 0.00
    0.0010251162 = product of:
      0.007175813 = sum of:
        0.007175813 = product of:
          0.035879064 = sum of:
            0.035879064 = weight(_text_:retrieval in 4203) [ClassicSimilarity], result of:
              0.035879064 = score(doc=4203,freq=12.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.32745665 = fieldWeight in 4203, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4203)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Footnote
    Zugl.: Düsseldorf, Univ., Diss., 2009 u.d.T.: Peters, Isabella: Folksonomies in Wissensrepräsentation und Information Retrieval Rez. in: IWP - Information Wissenschaft & Praxis, 61(2010) Heft 8, S.469-470 (U. Spree): "... Nachdem sich die Rezensentin durch 418 Seiten Text hindurch gelesen hat, bleibt sie unentschieden, wie der auffällige Einsatz langer Zitate (im Durchschnitt drei Zitate, die länger als vier kleingedruckte Zeilen sind, pro Seite) zu bewerten ist, zumal die Zitate nicht selten rein illustrativen Charakter haben bzw. Isabella Peters noch einmal zitiert, was sie bereits in eigenen Worten ausgedrückt hat. Redundanz und Verlängerung der Lesezeit halten sich hier die Waage mit der Möglichkeit, dass sich die Leserin einen unmittelbaren Eindruck von Sprache und Duktus der zitierten Literatur verschaffen kann. Eindeutig unschön ist das Beenden eines Gedankens oder einer Argumentation durch ein Zitat (z. B. S. 170). Im deutschen Original entstehen auf diese Weise die für deutsche wissenschaftliche Qualifikationsarbeiten typischen denglischen Texte. Für alle, die sich für Wissensrepräsentation, Information Retrieval und kollaborative Informationsdienste interessieren, ist "Folksonomies : Indexing and Retrieval in Web 2.0" trotz der angeführten kleinen Mängel zur Lektüre und Anschaffung - wegen seines beinahe enzyklopädischen Charakters auch als Nachschlage- oder Referenzwerk geeignet - unbedingt zu empfehlen. Abschließend möchte ich mich in einem Punkt der Produktinfo von de Gruyter uneingeschränkt anschließen: ein "Grundlagenwerk für Folksonomies".
    RSWK
    Information Retrieval
    Subject
    Information Retrieval
  5. Block, C.H.: ¬Das Intranet : die neue Informationsverarbeitung (2004) 0.00
    7.9397525E-4 = product of:
      0.0055578267 = sum of:
        0.0055578267 = product of:
          0.027789133 = sum of:
            0.027789133 = weight(_text_:system in 2396) [ClassicSimilarity], result of:
              0.027789133 = score(doc=2396,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.2435858 = fieldWeight in 2396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2396)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: Wechselwirkung 26(2004) Nr.128, S.110: "Dieses Buch zeigt die vielfältigen Möglichkeiten, die ein Intranet-Einsatz dem Unternehmen bietet - angefangen vom Firmeninformations system bis zum Einsatz in Form des Extranet als Basis für Workflow und Wissensmanagement. Dabei wird deutlich, dass ein Intranet von enormer strategischer Bedeutung für die Informationsverarbeitung des gesamten Unternehmens ist. Der Autor Carl Hans Block behandelt neben den Grundlagen, die ein Intranet-Einsatz erfordert, insbesondere das praktische Vorgehen sowohl bei der Erstellung als auch beim laufenden Betrieb des Intranet."
  6. Maßun, M.: Collaborative information management in enterprises (2009) 0.00
    6.8055023E-4 = product of:
      0.0047638514 = sum of:
        0.0047638514 = product of:
          0.023819257 = sum of:
            0.023819257 = weight(_text_:system in 4091) [ClassicSimilarity], result of:
              0.023819257 = score(doc=4091,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20878783 = fieldWeight in 4091, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4091)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Für Mitarbeiter in Unternehmen gestaltet sich der effiziente Umgang mit einer ständig wachsenden Menge elektronisch verfügbarer Informationen schwierig. Die wesentlichen Herausforderungen aus Anwendersicht sind die Fragmentierung von Informationen, die starren Strukturierungsmöglichkeiten in Datenspeichern und die Isolierung von Wissensarbeit. Das anwenderorientierte System TagIt verbindet aktuelle Ansätze aus dem Persönlichen Informationsmanagement (PIM) und Collaborative Tagging. Die Fragmentierung wid durch Unifizierung von Informationen auf Metadaten- und Zugriffsebene überwunden. Starre Strukturen werden durch freie, multiple Strukturen ersetzt
  7. Marchionini, G.: Information concepts : from books to cyberspace identities (2010) 0.00
    4.1850194E-4 = product of:
      0.0029295133 = sum of:
        0.0029295133 = product of:
          0.014647567 = sum of:
            0.014647567 = weight(_text_:retrieval in 2) [ClassicSimilarity], result of:
              0.014647567 = score(doc=2,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13368362 = fieldWeight in 2, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Series
    Synthesis lectures on information concepts, retrieval, and services ; 16
  8. Weinberger, D.: Too big to know : rethinking knowledge now that the facts aren't the facts, experts are everywhere, and the smartest person in the room is the room (2011) 0.00
    3.9698763E-4 = product of:
      0.0027789134 = sum of:
        0.0027789134 = product of:
          0.013894566 = sum of:
            0.013894566 = weight(_text_:system in 334) [ClassicSimilarity], result of:
              0.013894566 = score(doc=334,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.1217929 = fieldWeight in 334, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=334)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Abstract
    In this title, a leading philosopher of the internet explains how knowledge and expertise can still work - and even grow stronger - in an age when the internet has made topics simply Too Big to Know. Knowing used to be so straightforward. If we wanted to know something we looked it up, asked an expert, gathered the facts, weighted the possibilities, and honed in on the best answer ourselves. But, ironically, with the advent of the internet and the limitless information it contains, we're less sure about what we know, who knows what, or even what it means to know at all. Knowledge, it would appear, is in crisis. And yet, while its very foundations seem to be collapsing, human knowledge has grown in previously unimaginable ways, and in inconceivable directions, in the Internet age. We fact-check the news media more closely and publicly than ever before. Science is advancing at an unheard of pace thanks to new collaborative techniques and new ways to find patterns in vast amounts of data. Businesses are finding expertise in every corner of their organization, and across the broad swath of their stakeholders. We are in a crisis of knowledge at the same time that we are in an epochal exaltation of knowledge. In "Too Big to Know", Internet philosopher David Weinberger explains that, rather than a systemic collapse, the Internet era represents a fundamental change in the methods we have for understanding the world around us. Weinberger argues that our notions of expertise - what it is, how it works, and how it is cultivated - are out of date, rooted in our pre-networked culture and assumptions. For thousands of years, we've relied upon a reductionist process of filtering, winnowing, and otherwise reducing the complex world to something more manageable in order to understand it. Back then, an expert was someone who had mastered a particular, well-defined domain. Now, we live in an age when topics are blown apart and stitched together by momentary interests, diverse points of view, and connections ranging from the insightful to the perverse. Weinberger shows that, while the limits of our own paper-based tools have historically prevented us from achieving our full capacity of knowledge, we can now be as smart as our new medium allows - but we will be smart differently. For the new medium is a network, and that network changes our oldest, most basic strategy of knowing. Rather than knowing-by-reducing, we are now knowing-by-including. Indeed, knowledge now is best thought of not as the content of books or even of minds, but as the way the network works. Knowledge will never be the same - not for science, not for business, not for education, not for government, not for any of us. As Weinberger makes clear, to make sense of this new system of knowledge, we need - and smart companies are developing - networks that are themselves experts. Full of rich and sometimes surprising examples from history, politics, business, philosophy, and science, "Too Big to Know" describes how the very foundations of knowledge have been overturned, and what this revolution means for our future.
  9. Weller, K.: Knowledge representation in the Social Semantic Web (2010) 0.00
    3.661892E-4 = product of:
      0.0025633243 = sum of:
        0.0025633243 = product of:
          0.012816621 = sum of:
            0.012816621 = weight(_text_:retrieval in 4515) [ClassicSimilarity], result of:
              0.012816621 = score(doc=4515,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.11697317 = fieldWeight in 4515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4515)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: iwp 62(2011) H.4, S.205-206 (C. Carstens): "Welche Arten der Wissensrepräsentation existieren im Web, wie ausgeprägt sind semantische Strukturen in diesem Kontext, und wie können soziale Aktivitäten im Sinne des Web 2.0 zur Strukturierung von Wissen im Web beitragen? Diesen Fragen widmet sich Wellers Buch mit dem Titel Knowledge Representation in the Social Semantic Web. Der Begriff Social Semantic Web spielt einerseits auf die semantische Strukturierung von Daten im Sinne des Semantic Web an und deutet andererseits auf die zunehmend kollaborative Inhaltserstellung im Social Web hin. Weller greift die Entwicklungen in diesen beiden Bereichen auf und beleuchtet die Möglichkeiten und Herausforderungen, die aus der Kombination der Aktivitäten im Semantic Web und im Social Web entstehen. Der Fokus des Buches liegt dabei primär auf den konzeptuellen Herausforderungen, die sich in diesem Kontext ergeben. So strebt die originäre Vision des Semantic Web die Annotation aller Webinhalte mit ausdrucksstarken, hochformalisierten Ontologien an. Im Social Web hingegen werden große Mengen an Daten von Nutzern erstellt, die häufig mithilfe von unkontrollierten Tags in Folksonomies annotiert werden. Weller sieht in derartigen kollaborativ erstellten Inhalten und Annotationen großes Potenzial für die semantische Indexierung, eine wichtige Voraussetzung für das Retrieval im Web. Das Hauptinteresse des Buches besteht daher darin, eine Brücke zwischen den Wissensrepräsentations-Methoden im Social Web und im Semantic Web zu schlagen. Um dieser Fragestellung nachzugehen, gliedert sich das Buch in drei Teile. . . .
  10. Widén-Wulff, G.: ¬The challenges of knowledge sharing in practice : a social approach (2007) 0.00
    2.6156372E-4 = product of:
      0.001830946 = sum of:
        0.001830946 = product of:
          0.00915473 = sum of:
            0.00915473 = weight(_text_:retrieval in 727) [ClassicSimilarity], result of:
              0.00915473 = score(doc=727,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.08355226 = fieldWeight in 727, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=727)
          0.2 = coord(1/5)
      0.14285715 = coord(1/7)
    
    Footnote
    Das Buch gliedert sich in drei Teile. Im ersten Abschnitt, Theories of Information Sharing, erfolgt eine kurze Diskussion von Begriffen und Konzepten aus dem Bereich der kontextuellen Informationssuche, der Information im organisatorischen Umfeld, der Sozial- und Gruppenpsychologie, sowie vor allem die Einführung des Konzeptes "social capital" (soziales Kapital, Sozialkapital), eines aus der Soziologie stammenden theoretischen Ansatzes, als Rahmen für die Betrachtung der Informationsprozesse im Unternehmen. Hier wird Sozialkapital verstanden als die Werte, Normen und Netzwerke, die informationsbezogene Interaktionen möglich und wirksam machen und so die Basis für kollaborative Arbeit zur Verfolgung gemeinsamer Ziele schaffen (p. 30). Der zweite Teil - umfangmässig der größte des Buches - ist mit Two Practices in Information Sharing überschrieben und berichtet detailliert über Fallstudien, die die Autorin in zwei finnischen Unternehmen mittels einer kleinen Zahl qualitativer Interviews durchführte. Dabei wird eine Firma aus der Versicherungsbranche (als einer eher stabilen Branche) mit einem biotechnologischen Produktionsbetrieb (eher turbulent-expansives Umfeld) verglichen. Im dritten Teil, Insights into Information, Knowledge Sharing and Social Capital, diskutiert die Autorin die Resultate ihrer Erhebung, insbesondere im theoretischen Kontext des Sozialkapitals - so etwa die Motive für den Austausch von Informationen und Wissen. Natürlich wird Widén-Wulffs Studie vor allem jene interessieren, die sich mit dem betrieblichen Informations- und Wissensmanagement beschäftigen. Für Interessenten an "information seeking and retrieval" oder "human information behaviour" im Allgemeinen ist das Buch nur bedingt zu empfehlen, doch werden auch sie von den Hinweisen auf den überblicksartig gestreiften Forschungsstand profitieren können. Hingegen werden Rezipienten aus den klassischeren Bereichen des Bibliotheks- bzw. Informationswesens die Lektüre vermutlich als weniger leicht verdaulich empfinden. Der Ladenpreis von mehr als 55 Euro ist für einen Broschurband von knapp 230 Seiten im übrigen viel zu hoch."

Languages