Search (12 results, page 1 of 1)

  • × classification_ss:"ST 205"
  1. Rosenfeld, L.; Morville, P.: Information architecture for the World Wide Web : designing large-scale Web sites (2007) 0.01
    0.007103278 = product of:
      0.03551639 = sum of:
        0.03551639 = weight(_text_:22 in 5135) [ClassicSimilarity], result of:
          0.03551639 = score(doc=5135,freq=2.0), product of:
            0.18359412 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.052428056 = queryNorm
            0.19345059 = fieldWeight in 5135, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5135)
      0.2 = coord(1/5)
    
    Date
    22. 3.2008 16:18:27
  2. Mythos Internet (1997) 0.00
    0.003954652 = product of:
      0.01977326 = sum of:
        0.01977326 = weight(_text_:1 in 3175) [ClassicSimilarity], result of:
          0.01977326 = score(doc=3175,freq=4.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.15353142 = fieldWeight in 3175, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.03125 = fieldNorm(doc=3175)
      0.2 = coord(1/5)
    
    Footnote
    Vgl.: Krempl, S.: Vom Mythos Internet unter: http://www.heise.de/tp/r4/artikel/2/2067/1.html.
    Signature
    99 BBK 1013+1
  3. Bizer, C.; Heath, T.: Linked Data : evolving the web into a global data space (2011) 0.00
    0.003954652 = product of:
      0.01977326 = sum of:
        0.01977326 = weight(_text_:1 in 4725) [ClassicSimilarity], result of:
          0.01977326 = score(doc=4725,freq=4.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.15353142 = fieldWeight in 4725, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.03125 = fieldNorm(doc=4725)
      0.2 = coord(1/5)
    
    Isbn
    978-1-60845-430-3
    Series
    Synthesis lectures on the semantic web: theory and technology ; 1
  4. Social Semantic Web : Web 2.0, was nun? (2009) 0.00
    0.0029659888 = product of:
      0.014829944 = sum of:
        0.014829944 = weight(_text_:1 in 4854) [ClassicSimilarity], result of:
          0.014829944 = score(doc=4854,freq=4.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.11514856 = fieldWeight in 4854, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
      0.2 = coord(1/5)
    
    Footnote
    Vgl.: http://www.springer.com/computer/database+management+%26+information+retrieval/book/978-3-540-72215-1.
    Isbn
    978-3-540-72215-1
  5. Hitzler, P.; Krötzsch, M.; Rudolph, S.: Foundations of Semantic Web technologies (2010) 0.00
    0.002796361 = product of:
      0.013981805 = sum of:
        0.013981805 = weight(_text_:1 in 359) [ClassicSimilarity], result of:
          0.013981805 = score(doc=359,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.1085631 = fieldWeight in 359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.03125 = fieldNorm(doc=359)
      0.2 = coord(1/5)
    
    Isbn
    978-1-420-09050-5
  6. ¬Die Googleisierung der Informationssuche : Suchmaschinen zwischen Nutzung und Regulierung (2014) 0.00
    0.002796361 = product of:
      0.013981805 = sum of:
        0.013981805 = weight(_text_:1 in 1840) [ClassicSimilarity], result of:
          0.013981805 = score(doc=1840,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.1085631 = fieldWeight in 1840, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.03125 = fieldNorm(doc=1840)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Mitt. VOEB 68(2015) H.1, S.180-183 (O.Oberhauser): "Aus dieser kurzen Skizze geht hervor, dass der vorliegende Band eine Reihe interessanter und mitunter auch brisanter Teilthemen beinhaltet. Wer an der Diskussion um die Rolle der meistgenutzten Suchmaschine in unserer Gesellschaft Interesse hat, findet in diesem Buch reichlich Material und Ideen. Jeder Beitrag wird zudem durch ein Literaturverzeichnis ergänzt, in dem weiterführende Quellen genannt werden. Die Beiträge sind durchweg "lesbar" geschrieben und nur in mässigem Ausmass von soziologischem oder rechtswissenschaftlichem Fachjargon durchsetzt. In stilistischer Hinsicht ist der Text dennoch nicht ohne Probleme, zumal bereits im ersten Absatz der Einleitung ein als Hauptsatz "verkaufter" Nebensatz auffällt ("Denn Suchmaschinenbetreiber wie Google ermöglichen und gestalten den Zugang zu Informationen im Netz.") und die gleiche stilistische Schwäche allein in der 19-seitigen Einleitung in über einem Dutzend weiterer Fälle registriert werden kann, vom nächsten Beitrag gar nicht zu sprechen. Ein funktionierendes Verlagslektorat hätte derlei rigoros bereinigen müssen. Es hätte eventuell auch dafür Sorge tragen können, dass am Ende des Bandes nicht nur ein Verzeichnis der Autorinnen und Autoren aufscheint, sondern auch ein Sachregister - ein solches fehlt nämlich bedauerlicherweise. In optischer Hinsicht ist der Hardcover-Band ansprechend gestaltet und gut gelungen. Der Preis liegt mit rund 80 Euro leider in der Oberklasse; auch die E-Book-Version macht die Anschaffung nicht billiger, da kein Preisunterschied zur gebundenen Ausgabe besteht. Dennoch ist das Buch aufgrund der interessanten Inhalte durchaus zu empfehlen; grössere Bibliotheken sowie kommunikations- und informationswissenschaftliche Spezialsammlungen sollten es nach Möglichkeit erwerben."
  7. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.00
    0.0024716575 = product of:
      0.012358287 = sum of:
        0.012358287 = weight(_text_:1 in 1443) [ClassicSimilarity], result of:
          0.012358287 = score(doc=1443,freq=4.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.09595714 = fieldWeight in 1443, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
    Isbn
    1-402-02268-9
  8. Rosenfeld, L.; Morville, P.: Information architecture for the World Wide Web : designing large-scale Web sites (1998) 0.00
    0.002446816 = product of:
      0.01223408 = sum of:
        0.01223408 = weight(_text_:1 in 493) [ClassicSimilarity], result of:
          0.01223408 = score(doc=493,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.09499271 = fieldWeight in 493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
      0.2 = coord(1/5)
    
    Isbn
    1-56592-282-4
  9. Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009) 0.00
    0.002446816 = product of:
      0.01223408 = sum of:
        0.01223408 = weight(_text_:1 in 3586) [ClassicSimilarity], result of:
          0.01223408 = score(doc=3586,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.09499271 = fieldWeight in 3586, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3586)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in Mitt. VÖB 63(2010) H.1/2, S.147-148 (M. Buzinkay): "Webseiten-Gestaltung und Webseiten-Analyse gehen Hand in Hand. Leider wird das Letztere selten wenn überhaupt berücksichtigt. Zu Unrecht, denn die Analyse der eigenen Maßnahmen ist zur Korrektur und Optimierung entscheidend. Auch wenn die Einsicht greift, dass die Analyse von Webseiten wichtig wäre, ist es oft ein weiter Weg zur Realisierung. Warum? Analyse heißt kontinuierlicher Aufwand, und viele sind nicht bereit beziehungsweise haben nicht die zeitlichen Ressourcen dazu. Ist man einmal zu der Überzeugung gelangt, dass man seine Web-Aktivitäten dennoch optimieren, wenn nicht schon mal gelegentlich hinterfragen sollte, dann lohnt es sich, Marco Hasslers "Web Analytics" in die Hand zu nehmen. Es ist definitiv kein Buch für einen einzigen Lese-Abend, sondern ein Band, mit welchem gearbeitet werden muss. D.h. auch hier: Web-Analyse bedeutet Arbeit und intensive Auseinandersetzung (ein Umstand, den viele nicht verstehen und akzeptieren wollen). Das Buch ist sehr dicht und bleibt trotzdem übersichtlich. Die Gliederung der Themen - von den Grundlagen der Datensammlung, über die Definition von Metriken, hin zur Optimierung von Seiten und schließlich bis zur Arbeit mit Web Analyse Werkzeugen - liefert einen roten Faden, der schön von einem Thema auf das nächste aufbaut. Dadurch fällt es auch leicht, ein eigenes Projekt begleitend zur Buchlektüre Schritt für Schritt aufzubauen. Zahlreiche Screenshots und Illustrationen erleichtern zudem das Verstehen der Zusammenhänge und Erklärungen im Text. Das Buch überzeugt aber auch durch seine Tiefe (bis auf das Kapitel, wo es um die Zusammenstellung von Personas geht) und den angenehm zu lesenden Schreibstil. Von mir kommt eine dringende Empfehlung an alle, die sich mit Online Marketing im Allgemeinen, mit Erfolgskontrolle von Websites und Web-Aktivitäten im Speziellen auseindersetzen."
  10. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.00
    0.002446816 = product of:
      0.01223408 = sum of:
        0.01223408 = weight(_text_:1 in 167) [ClassicSimilarity], result of:
          0.01223408 = score(doc=167,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.09499271 = fieldWeight in 167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.02734375 = fieldNorm(doc=167)
      0.2 = coord(1/5)
    
    Content
    Inhalt: 1. Einleitung (A. Dengel, A. Bernardi) 2. Wissensrepräsentation (A. Dengel, A. Bernardi, L. van Elst) 3. Semantische Netze, Thesauri und Topic Maps (O. Rostanin, G. Weber) 4. Das Ressource Description Framework (T. Roth-Berghofer) 5. Ontologien und Ontologie-Abgleich in verteilten Informationssystemen (L. van Elst) 6. Anfragesprachen und Reasoning (M. Sintek) 7. Linked Open Data, Semantic Web Datensätze (G.A. Grimnes, O. Hartig, M. Kiesel, M. Liwicki) 8. Semantik in der Informationsextraktion (B. Adrian, B. Endres-Niggemeyer) 9. Semantische Suche (K. Schumacher, B. Forcher, T. Tran) 10. Erklärungsfähigkeit semantischer Systeme (B. Forcher, T. Roth-Berghofer, S. Agne) 11. Semantische Webservices zur Steuerung von Prooduktionsprozessen (M. Loskyll, J. Schlick, S. Hodeck, L. Ollinger, C. Maxeiner) 12. Wissensarbeit am Desktop (S. Schwarz, H. Maus, M. Kiesel, L. Sauermann) 13. Semantische Suche für medizinische Bilder (MEDICO) (M. Möller, M. Sintek) 14. Semantische Musikempfehlungen (S. Baumann, A. Passant) 15. Optimierung von Instandhaltungsprozessen durch Semantische Technologien (P. Stephan, M. Loskyll, C. Stahl, J. Schlick)
  11. Stöcklin, N.: Wikipedia clever nutzen : in Schule und Beruf (2010) 0.00
    0.0017477258 = product of:
      0.008738629 = sum of:
        0.008738629 = weight(_text_:1 in 4531) [ClassicSimilarity], result of:
          0.008738629 = score(doc=4531,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.06785194 = fieldWeight in 4531, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4531)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Mitt. VÖB 64(2011) H.1, S. 153-155 (K Niedermair): "Vor einigen Wochen war in der Wochenzeitung Die Zeit ein dreiseitiger Beitrag über die gerade 10 Jahre alt gewordene Wikipedia zu lesen, unter dem Titel "Das größte Werk der Menschen": Wie könnte Wikipedia dieses Prädikat verdienen? Wohl schon aufgrund der Quantitäten: Die freie Enzyklopädie Wikipedia ist, seit sie am 15. Jänner 2001 online ging, extrem gewachsen, es gibt Plattformen in den meisten Sprachen, mit sehr viel Content, am meisten natürlich in der englischsprachigen Version, nämlich über drei Millionen Beiträge, auch die deutschsprachige ist beachtlich vertreten mit ca. einer Million. Wikipedia ist zu einer wichtigen Informationsquelle geworden, im Alltag, im Beruf, im Lehr- und Wissenschaftsbetrieb, dies zeigen immer wieder Befragungen von Studierenden und Wissenschaftler/innen. Verdienstvoll ist Wikipedia auch, weil sie nicht auf Gewinn orientiert ist, auf Werbeeinnahmen verzichtet. Wikipedia lebt vom Idealismus unzähliger freiwilliger Mitarbeiter/innen, die nicht um Geld, sondern aus Freude an der Arbeit gemeinsam dem großen Ziel verpflichtet sind, Wissen zu sammeln, zu ordnen und bereitzustellen - und zwar kostenlos für alle zu jeder Zeit und an jedem Ort. Es ist wohltuend, dass dieses Programm einer universalen Enzyklopädia publico in der kommerzialisierten Wirklichkeit des Internet überleben konnte und dass Erfolg und Wachstum im Internet nicht immer mit Geld zu tun haben müssen, wie es Google, Facebook usw. nahelegen, deren Gründer bekanntlich inzwischen Milliardäre sind. Und Wikipedia ist insofern ein starkes Argument gegen die landläufige These, dass Information nur brauchbar ist, wenn sie etwas kostet: Qualitätssicherung von Information hängt nicht zwangsläufig mit ihrer Ökonomisierung zusammen. Tatsächlich ist Wikipedia inzwischen eine massive Konkurrenz für die herkömmlichen, kommerziell orientierten Lexika und Enzyklopädien.
  12. Rogers, R.: Information politics on the Web (2004) 0.00
    0.0013981805 = product of:
      0.0069909026 = sum of:
        0.0069909026 = weight(_text_:1 in 442) [ClassicSimilarity], result of:
          0.0069909026 = score(doc=442,freq=2.0), product of:
            0.12878966 = queryWeight, product of:
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.052428056 = queryNorm
            0.05428155 = fieldWeight in 442, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4565027 = idf(docFreq=10304, maxDocs=44218)
              0.015625 = fieldNorm(doc=442)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: JASIST 58(2007) no.4, S.608-609 (K.D. Desouza): "Richard Rogers explores the distinctiveness of the World Wide Web as a politically contested space where information searchers may encounter multiple explanations of reality. Sources of information on the Web are in constant competition with each other for attention. The attention a source receives will determine its prominence, the ability to be a provider of leading information, and its inclusion in authoritative spaces. Rogers explores the politics behind evaluating sources that are collected and housed on authoritative spaces. Information politics on the Web can be looked at in terms of frontend or back-end politics. Front-end politics is concerned with whether sources on the Web pay attention to principles of inclusivity, fairness, and scope of representation in how information is presented, while back-end politics examines the logic behind how search engines or portals select and index information. Concerning front-end politics, Rogers questions the various versions of reality one can derive from examining information on the Web, especially when issues of information inclusivity and scope of representation are toiled with. In addition, Rogers is concerned with how back-end politics are being controlled by dominant forces of the market (i.e., the more an organization is willing to pay, the greater will be the site's visibility and prominence in authoritative spaces), regardless of whether the information presented on the site justifies such a placement. In the book, Rogers illustrates the issues involved in back-end and front-end politics (though heavily slanted on front-end politics) using vivid cases, all of which are derived from his own research. The main thrust is the exploration of how various "information instruments," defined as "a digital and analytical means of recording (capturing) and subsequently reading indications of states of defined information streams (p. 19)," help capture the politics of the Web. Rogers employs four specific instruments (Lay Decision Support System, Issue Barometer, Web Issue Index of Civil Society, and Election Issue Tracker), which are covered in detail in core chapters of the book (Chapter 2-Chapter 5). The book is comprised of six chapters, with Chapter 1 being the traditional introduction and Chapter 6 being a summary of the major concepts discussed.

Languages

Types

  • m 12
  • s 2

Subjects

Classifications