Search (9 results, page 1 of 1)

  • × classification_ss:"54.65 / Webentwicklung / Webanwendungen"
  1. Handbuch Internet-Suchmaschinen [1] : Nutzerorientierung in Wissenschaft und Praxis (2009) 0.09
    0.08972587 = product of:
      0.19226971 = sum of:
        0.016239323 = weight(_text_:23 in 329) [ClassicSimilarity], result of:
          0.016239323 = score(doc=329,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.13859524 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.07945506 = weight(_text_:monographien in 329) [ClassicSimilarity], result of:
          0.07945506 = score(doc=329,freq=4.0), product of:
            0.217941 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032692216 = queryNorm
            0.36457142 = fieldWeight in 329, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.016239323 = weight(_text_:23 in 329) [ClassicSimilarity], result of:
          0.016239323 = score(doc=329,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.13859524 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.03226879 = weight(_text_:und in 329) [ClassicSimilarity], result of:
          0.03226879 = score(doc=329,freq=54.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.44534507 = fieldWeight in 329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.016239323 = weight(_text_:23 in 329) [ClassicSimilarity], result of:
          0.016239323 = score(doc=329,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.13859524 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.0073970375 = weight(_text_:in in 329) [ClassicSimilarity], result of:
          0.0073970375 = score(doc=329,freq=20.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.16633868 = fieldWeight in 329, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.024430858 = weight(_text_:der in 329) [ClassicSimilarity], result of:
          0.024430858 = score(doc=329,freq=30.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.33454654 = fieldWeight in 329, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
      0.46666667 = coord(7/15)
    
    Abstract
    In diesem Handbuch steht die Nutzerorientierung im Vordergrund. Namhafte Autoren aus Wissenschaft und Praxis beschäftigen sich in 16 Kapiteln mit Web-Suchmaschinen, die die Vorreiter hinsichtlich des sich verändernden Nutzerverhaltens sind. Das bei Google und Co. erlernte Verhalten wird auf andere Suchsysteme übertragen: die Website-Suche, die Intranet-Suche und die Suche in Spezialsuchmaschinen und Fachdatenbanken. Für alle Anbieter von Informationssystemen wird es zunehmend wichtig, einerseits die Arbeitsweise von Suchmaschinen zu kennen, andererseits mit dem Verhalten Ihrer Nutzer vertraut zu sein. Auf der Seite der Wissenschaftler werden Informatiker, Informationswissenschaftler, Medienwissenschaftler und Bibliothekswissenschaftler angesprochen. Für Entwickler bietet dieses Handbuch einen Überblick über Möglichkeiten für Suchsysteme, gibt Anregungen für Umsetzung und zeigt anhand von bestehenden Lösungen, wie eine Umsetzung aussehen kann. Für Entscheider, Rechercheure und Informationsvermittler bietet das Buch lesbare Überblicksartikel zu relevanten Themenbereichen, auf deren Basis eine Strategie für individuelle Suchlösungen erarbeitet werden kann. Als dritte Praktiker gruppe sind u.a. Berater, Lehrer, Journalisten und Politiker zu nennen, die sich zu den wichtigsten Themen rund um die Suche informieren möchten.
    Classification
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    Content
    I. Suchmaschinenlandschaft Der Markt für Internet-Suchmaschinen - Christian Maaß, Andre Skusa, Andreas Heß und Gotthard Pietsch Typologie der Suchdienste im Internet - Joachim Griesbaum, Bernard Bekavac und Marc Rittberger Spezialsuchmaschinen - Dirk Lewandowski Suchmaschinenmarketing - Carsten D. Schultz II. Suchmaschinentechnologie Ranking-Verfahren für Web-Suchmaschinen - Philipp Dopichaj Programmierschnittstellen der kommerziellen Suchmaschinen - Fabio Tosques und Philipp Mayr Personalisierung der Internetsuche - Lösungstechniken und Marktüberblick - Kai Riemer und Fabian Brüggemann III. Nutzeraspekte Methoden der Erhebung von Nutzerdaten und ihre Anwendung in der Suchmaschinenforschung - Nadine Höchstötter Standards der Ergebnispräsentation - Dirk Lewandowski und Nadine Höchstötter Universal Search - Kontextuelle Einbindung von Ergebnissen unterschiedlicher Quellen und Auswirkungen auf das User Interface - Sonja Quirmbach Visualisierungen bei Internetsuchdiensten - Thomas Weinhold, Bernard Bekavac, Sonja Hierl, Sonja Öttl und Josef Herget IV. Recht und Ethik Datenschutz bei Suchmaschinen - Thilo Weichert Moral und Suchmaschinen - Karsten Weber V. Vertikale Suche Enterprise Search - Suchmaschinen für Inhalte im Unternehmen - Julian Bahrs Wissenschaftliche Dokumente in Suchmaschinen - Dirk Pieper und Sebastian Wolf Suchmaschinen für Kinder - Maria Zens, Friederike Silier und Otto Vollmers
    Date
    17. 9.2018 18:23:58
    Footnote
    Vgl. auch: http://www.bui.haw-hamburg.de/164.html (Elektronische Ressource) Rez. in: IWP 60(2009) H.3, S.177-178 (L. Weisel): "Mit dem vorliegenden Handbuch will der Herausgeber, Prof. Dr. Dirk Lewandowksi von der Hochschule für Angewandte Wissenschaften Hamburg, nach eigenen Worten eine Lücke füllen. Er hat renommierte Autoren aus unterschiedlichen Fachcommunities aufgerufen, zu dem Thema "Suchmaschinen im Internet" ihre unterschiedlichen Perspektiven in Form von Übersichtsartikeln zusammenzuführen. So möchte er mit diesem Band den Austausch zwischen den Communities sowie zwischen Wissenschaftlern und Praktikern fördern. . . . Empfehlung Dem Handbuch "Internet-Suchmaschinen" wird eine breite Leserschaft aus Wissenschaft und Praxis des Suchens und Findens im Web gewünscht, es sollte bei allen Einrichtungen für die Ausbildung des Fachnachwuchses zum Repertoire gehören, um diesen kritisch an die Thematik heranzuführen. Das gedruckte Werk wird der Aktualität und dem Wandel in diesem sehr dynamischen Fachgebiet Tribut zollen müssen. Statt einer zeitnahen Zweitausgabe sei dem Herausgeber und dem Verlag hier der Weg der kontinuierlichen Ergänzung empfohlen: um die oben genannten fehlenden Beiträge, aber auch sich neu ententwickelnde Inhalte - in Form eines lebendigen Lehrbuches -auf der geeigneten elektronischen Plattform."
    RVK
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
  2. Long, J.: Google hacking (2008) 0.05
    0.046216324 = product of:
      0.13864897 = sum of:
        0.023539059 = weight(_text_:und in 2925) [ClassicSimilarity], result of:
          0.023539059 = score(doc=2925,freq=22.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.3248651 = fieldWeight in 2925, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
        0.013698216 = weight(_text_:zur in 2925) [ClassicSimilarity], result of:
          0.013698216 = score(doc=2925,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.13607939 = fieldWeight in 2925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
        0.0730774 = weight(_text_:sicherheit in 2925) [ClassicSimilarity], result of:
          0.0730774 = score(doc=2925,freq=2.0), product of:
            0.23250443 = queryWeight, product of:
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.032692216 = queryNorm
            0.31430542 = fieldWeight in 2925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
        0.009260627 = weight(_text_:in in 2925) [ClassicSimilarity], result of:
          0.009260627 = score(doc=2925,freq=24.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.2082456 = fieldWeight in 2925, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
        0.019073661 = weight(_text_:der in 2925) [ClassicSimilarity], result of:
          0.019073661 = score(doc=2925,freq=14.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.2611872 = fieldWeight in 2925, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
      0.33333334 = coord(5/15)
    
    Abstract
    Johnny Long zeigt mit vielen Beispielabfragen, dass Google zigtausende brisante Dokumente indexiert hat. Der Grund hierfür liegt oft in der Unwissenheit der Anwender, in Fehlkonfigurationen oder schlicht in der Faulheit des Administrators (...) Administratoren lernen in dem Buch viel übder die Kreativität von Angreifern und können anhand der unzähligen Beispiele abchecken, ob ihre Server nicht vielleicht doch zu viele Informationen preisgeben. Aber auch Otto Normalanwender kann von dem Buch profitieren, denn Long beschreibt sehr detailliert die Funktionsweise der Google-Operatoren, welche Operatoren sich wie kombinieren lassen und von welchen man zur Sicherheit am besten die Finger lässt.
    Footnote
    Rez. in: Mitt VÖB 62(2009) H.1 (M. Buzinkay): "Normalerweise schreibe ich in einer Buchrezension zunächst über den Inhalt, die Relevanz und erst am Schluss eine persönliche Empfehlung. Nun mache ich es mal umgekehrt: Jeder Informationsspezialist sollte sich dieses Buch besorgen und daraus seine Schlüsse ziehen! Nach dieser ordentlichen Portion "Wachrütteln" komme ich zum vorliegenden Werk. Die mehr als 500 Seiten sind dicht gepackte Information und Wissen pur zu Google und was mar alles aus dieser Suchmaschine herausholen kann. Das sind teilweise Dinge, die man nicht glauben würde: Zutritt zu Firmenwebcams, Passwortdateien, Contentmanagementsystemen und Personendaten. Das Buch ist also keine Einführung in das 1 x 1 von Google, und trotzdem lassen sich mit den Grundfunktionen dieser Suchmaschine die verrücktesten Dinge anstellen und herausfinden. Wenn Sie das nächste Mal jemanden fragen sollten, ob er Google denn kenne und damit umgehen könne, dann können Sie das sicherlich gefallene "Ja" getrost in den digitalen Eimer schmeißen. Das, was Sie in diesem Buch lesen, haben sie zu 90% noch nicht gekannt. Und Sie sind Informationsexperte/in. Einige Auszüge aus dem Inhaltsverzeichnis geben Ihnen eine Ahnung, um was es in diesem Buch geht: Newsgroups durchsuchen, Verzeichnislisten aufspüren, Datenbanken erforschen, Daten von der Quelle abholen, fremde Angriffscodes entdecken, Sicherheitsabfragen formulieren, ... Das Schöne: man bekommt allerhand Beispiele geliefert, die man auch selbst (legal) ausprobieren kann. In Summe: sehr empfehlenswert!"
  3. Library mashups : exploring new ways to deliver library data (2009) 0.02
    0.023260465 = product of:
      0.06978139 = sum of:
        0.014211732 = weight(_text_:software in 3281) [ClassicSimilarity], result of:
          0.014211732 = score(doc=3281,freq=2.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.10957812 = fieldWeight in 3281, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3281)
        0.020327425 = weight(_text_:und in 3281) [ClassicSimilarity], result of:
          0.020327425 = score(doc=3281,freq=42.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.280541 = fieldWeight in 3281, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3281)
        0.012107626 = weight(_text_:zur in 3281) [ClassicSimilarity], result of:
          0.012107626 = score(doc=3281,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.120278314 = fieldWeight in 3281, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3281)
        0.0068889693 = weight(_text_:in in 3281) [ClassicSimilarity], result of:
          0.0068889693 = score(doc=3281,freq=34.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.15491365 = fieldWeight in 3281, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3281)
        0.016245637 = weight(_text_:der in 3281) [ClassicSimilarity], result of:
          0.016245637 = score(doc=3281,freq=26.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.22246134 = fieldWeight in 3281, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3281)
      0.33333334 = coord(5/15)
    
    Abstract
    As web users become more savvy and demanding, libraries are encouraging patrons to help keep library websites dynamically and collaboratively up-to-date. According to Engard, mashups - web applications that combine freely available data from various sources to create something new - can help libraries meet patrons' expectations and provide superior web-based service. In the book, Engard and 25 contributors present numerous practical and innovative examples.
    Content
    What is a mashup? / Darlene Fichter -- Behind the scenes : some technical details on mashups / Bonaria Biancu -- Making your data available to be mashed up / Ross Singer -- Mashing up with librarian knowledge / Thomas Brevik -- Information in context / Brian Herzog -- Mashing up the library website / Lichen Rancourt -- Piping out library data / Nicole C. Engard -- Mashups @ Libraries interact / Corey Wallis -- Library catalog mashup : using Blacklight to expose collections / Bess Sadler, Joseph Gilbert, and Matt Mitchell -- Breaking into the OPAC / Tim Spalding -- Mashing up open data with biblios.net Web services / Joshua Ferraro -- SOPAC 2.0 : the thrashable, mashable catalog / John Blyberg -- Mashups with the WorldCat Affiliate Services / Karen A. Coombs -- Flickr and digital image collections / Mark Dahl and Jeremy McWilliams -- Blip.tv and digital video collections in the library / Jason A. Clark -- Where's the nearest computer lab? : mapping up campus / Derik A. Badman -- The repository mashup map / Stuart Lewis -- The LibraryThing API and libraries / Robin Hastings -- ZACK bookmaps / Wolfram Schneider -- Federated database search mashup / Stephen Hedges, Laura Solomon, and Karl Jendretzky -- Electronic dissertation mashups using SRU / Michael C. Witt.
    Footnote
    Rez. in: Mitt. VÖB 62(2009) H.4, S.83-85 (S. Breitling): "Jede/r Web-Nutzer/in ist einem Mashup schon einmal begegnet. Mashups sind Webapplikationen bzw. -seiten, die Daten und Funktionalität aus zwei oder mehr frei zugänglichen Quellen zu einem neuen Service auf einer eigenen Webseite kombinieren. Dieser Dienst bietet einen Mehrwert für die Nutzerinnen durch Zusammenführung und Verknüpfung von Informationen an einem zentralen Ort. Z.B. werden sehr häufig Karten in Standortangaben eingebunden, oder im Bibliothekskatalog werden Amazon-Buchcover oder ein Link auf Google Book Search angezeigt. Darüber hinaus gibt es jedoch eine Vielzahl von Möglichkeiten, kreativ Mashups für den Bibliotheksbereich zu entwickeln, wie das vorliegende Werk "Library Mashups - exploring new ways to deliver library data" eindrucksvoll beweist. Nicole C. Engard, die als Open-Source-Botschafterin in der Bibliothekswelt für den Einsatz dieser Software-Palette als integrierte Bibliothekssysteme (Koha, Evergreen) wirbt, konnte als Herausgeberin so bekannte Personen gewinnen wie Tim Spalding, Gründer von LibraryThing, oder aus dem deutschsprachigen Bereich Wolfram Schneider, Entwickler des Z39.50-Dienstes ZACK.
    In 6 Kapiteln mit unterschiedlichen Schwerpunkten (Einführung, Mashups für Bibliotheks-Webseiten, Katalog-Mashups, Karten-, Foto- und Video-Mashups, Mehrwert für Nutzerinnen durch Mashups) werden verschiedene Projekte vorgestellt, die v.a. im anglo-amerikanischen Raum aber auch international entwickelt und umgesetzt wurden. Zur Sprache kommen u.a. die Einbindung der Nutzer-generierten Daten von Library-Thing, die kreative Nutzung von bekannten Plattformen wie Flickr oder del. icio.us für bibliothekarische Dienste, das Open-Source-Katalog-Discovery-Interface Blacklight und verschiedene Mashup-Tools wie z.B. Yahoo!Pipes. Vielen Referenzen und Websites, die Hilfestellung beim Einstieg in die Materie leisten können, ergänzen den Band. Wichtige Grundlagenbegriffe (API, SRU etc.) werden erklärt und anhand von Beispielen veranschaulicht. Screenshots illustrieren die vorgestellten Projekte. Sehr nützlich: Am Ende des Buches befindet sich ein Glossar zum Nachschlagen mit kurzen Erklärungen der wichtigsten Begriffe, und es wurde ein eigene Webseite eingerichtet, auf denen sämtliche im Buch angegebene Links und weitere Informationen zu finden sind (mashups.web2learning.net). Bibliothekskataloge haben mit das größte Potential, in Mashups verwendet zu werden, sowohl was die Anreicherung mit externen Daten als auch die Datenlieferung an andere Anwendungen betrifft. An mehreren Stellen im Buch wird deutlich, wie wichtig die Zugänglichkeit bzw. Offenheit der Daten für die Verbreitung und Weiterentwicklung im Web ist und wie Bibliotheken damit (auch im Zeitalter von Google) relevant bleiben. Hier muss aber angesichts der meist in proprietären Systemen "gefangenen" bibliographischen Daten (Stichwort Datensilo) sowohl von Seiten der Bibliotheken als auch von Seiten der Hersteller von integrierten Bibliothekssystemen noch stark in Richtung Open Data umgedacht werden (diese Forderung findet sich auch in Fachdiskussionen über die Zukunft der Bibliotheken und Kataloge wieder).
    Es gibt zwar einige Literatur zum Thema Web 2.0 und Bibliotheken, in denen Mashups angesprochen werden, aber bisher kein ganzes Buch, das sich ausschließlich und in diesem Umfang dem Thema widmet. Vor allem in seiner speziell auf Bibliotheken zugeschnittenen umfassenden Darstellung von Mashups ist das Werk einzigartig. Auch Risiken von Mashups werden erwähnt (u.a. Wegfall der Verfügbarkeit der externen Datenquelle oder Überfrachtung der Website ohne Rücksicht auf Nutzerinteressen), aber mögliche rechtliche Aspekte (Nutzungsrechte, Datensicherheit o.ä.) werden kaum berücksichtigt. Mit seinen Schritt-für-Schritt-Anleitungen macht das Buch jedenfalls auch bisher technisch weniger versierten Bibliothekarinnen Mut, sich an Web-Anwendungen wie Mashups heranzuwagen. Die Beiträge variieren in ihrer Komplexität und auch die Bandbreite der Mashup-Erstellung reicht vom einfachen Copy-and-paste von ein paar Zeilen Code bis zur komplexeren Web-Architektur, aber prinzipiell sind technisches Grundverständnis und Basiskenntnisse von Programmieroder Auszeichnungssprachen und Web-Technologie sehr von Nutzen beim Verständnis der Mashup-Konzepte. All diejenigen (ob mit oder ohne Programmierkenntnisse), die sich einen Überblick über die vielfältigen Möglichkeiten von Mashups für Bibliotheken verschaffen wollen, werden von diesem Werk sicher profitieren und sich inspirieren lassen. Und die Web-Präsenz von Bibliotheken wird durch Mashups zeitgemäßer und dynamischer werden, was die Attraktivität im Vergleich zu statischen Webseiten wesentlich erhöht und den veränderten Nutzererwartungen gerecht wird."
  4. Content Management Handbuch : Strategien, Theorien und Systeme für erfolgreiches Content Management (2003) 0.01
    0.010957261 = product of:
      0.054786302 = sum of:
        0.02347209 = weight(_text_:und in 1554) [ClassicSimilarity], result of:
          0.02347209 = score(doc=1554,freq=14.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.32394084 = fieldWeight in 1554, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1554)
        0.007472136 = weight(_text_:in in 1554) [ClassicSimilarity], result of:
          0.007472136 = score(doc=1554,freq=10.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.16802745 = fieldWeight in 1554, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1554)
        0.023842076 = weight(_text_:der in 1554) [ClassicSimilarity], result of:
          0.023842076 = score(doc=1554,freq=14.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.326484 = fieldWeight in 1554, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1554)
      0.2 = coord(3/15)
    
    Abstract
    Content und Content Management hat innerhalb des Informations- und Wissensmanagements einen hohen Stellenwert. In diesem Buch werden Theorien, Strategien und Systeme, somit die Grundlagen für erfolgreiches Content Management, vorgestellt. Das Buch gliedert sich dabei in zwei Teile: Der erste Teil bietet in 10 Fachartikeln einen Überblick zu verschiedenen Aspekten des Content Managements, verfasst von 12 der bekanntesten Content Management Experten im deutschsprachigen Raum. Der zweite Teil des Buches enthält die Ergebnisse einer der weltweit grössten Studien über Content Management Systeme, in der mehr als 60 Systeme in einem speziell für diese Systeme entwickelten Verfahren evaluiert wurden. Diese am =mcminstitute der Universität St. Gallen durchgeführte Studie schafft Transparenz über Content Management Systeme, von kleinen Web-Redaktionssystemen bis hin zu umfangreichen Enterprise Content Management Systemen. Dabei werden funktionale Aspekte der Systeme, ihre Technologie, ihre Anpassbarkeit an Unternehmensbedürfnisse und ihre Zukunftssicherheit sowie die Bewertung dieser Systeme seitens Referenzkunden vorgestellt.
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
  5. Hübener, M.: Suchmaschinenoptimierung kompakt : anwendungsorientierte Techniken für die Praxis (2009) 0.01
    0.010544151 = product of:
      0.052720755 = sum of:
        0.018439308 = weight(_text_:und in 3911) [ClassicSimilarity], result of:
          0.018439308 = score(doc=3911,freq=6.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.2544829 = fieldWeight in 3911, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.005670953 = weight(_text_:in in 3911) [ClassicSimilarity], result of:
          0.005670953 = score(doc=3911,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.12752387 = fieldWeight in 3911, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.028610492 = weight(_text_:der in 3911) [ClassicSimilarity], result of:
          0.028610492 = score(doc=3911,freq=14.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.3917808 = fieldWeight in 3911, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
      0.2 = coord(3/15)
    
    Abstract
    Methoden der Suchmaschinenoptimierung werden im vorliegenden Buch umfassend beleuchtet. Nach einer Einführung in das Thema besteht ein erster Schwerpunkt darin, konkrete Handlungsanweisungen für die Suchmaschinenoptimierung einer Website aufzuzeigen. Dazu wird ein Optimierungszyklus in neun Schritten vorgestellt, welcher die Felder OffPage-Optimierung, OnPage-Optimierung und Keyword-Recherche einschließt. Darüber hinaus führt der Autor die zusätzliche Kategorie der Content-Strategie ein, um die Quellen und Verbreitungswege potentieller neuer Inhalte zu systematisieren. Um die Anschaulichkeit und den Praxisbezug noch zu erhöhen, stellt der Autor eine konkrete Anwendung des vorgestellten Optimierungszyklus am Beispiel einer real existierenden Website vor.
    Content
    Einleitung - Grundlagen - Die Funktionsweise der Suchmaschinen - Die Besonderheiten der Suchmaschine Google - Multimedia im World Wide Web - Die Strukturierung einer Internetpräsenz - Der 9-Punkte-Optimierungsplan - Die Anwendung des Optimierungsplans am Beispiel www.still.de - Zusammenfassung
  6. Aberer, K. et al.: ¬The Semantic Web : 6th International Semantic Web Conference, 2nd Asian Semantic Web Conference, ISWC 2007 + ASWC 2007, Busan, Korea, November 11-15, 2007 : proceedings (2007) 0.00
    0.0027657119 = product of:
      0.020742837 = sum of:
        0.014194585 = weight(_text_:und in 2477) [ClassicSimilarity], result of:
          0.014194585 = score(doc=2477,freq=8.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.19590102 = fieldWeight in 2477, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2477)
        0.006548252 = weight(_text_:in in 2477) [ClassicSimilarity], result of:
          0.006548252 = score(doc=2477,freq=12.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.14725187 = fieldWeight in 2477, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2477)
      0.13333334 = coord(2/15)
    
    Abstract
    This book constitutes the refereed proceedings of the joint 6th International Semantic Web Conference, ISWC 2007, and the 2nd Asian Semantic Web Conference, ASWC 2007, held in Busan, Korea, in November 2007. The 50 revised full academic papers and 12 revised application papers presented together with 5 Semantic Web Challenge papers and 12 selected doctoral consortium articles were carefully reviewed and selected from a total of 257 submitted papers to the academic track and 29 to the applications track. The papers address all current issues in the field of the semantic Web, ranging from theoretical and foundational aspects to various applied topics such as management of semantic Web data, ontologies, semantic Web architecture, social semantic Web, as well as applications of the semantic Web. Short descriptions of the top five winning applications submitted to the Semantic Web Challenge competition conclude the volume.
    Classification
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    RVK
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    Series
    Lecture notes in computer science ; 4825
  7. Erlhofer, S.: Suchmaschinen-Optimierung für Webentwickler : Grundlagen, Ranking optimieren, Tipps und Tricks; Neu: Keyword-Recherche, TYPO3-Optimierung, Usability (2006) 0.00
    0.0013382784 = product of:
      0.020074176 = sum of:
        0.020074176 = weight(_text_:und in 2150) [ClassicSimilarity], result of:
          0.020074176 = score(doc=2150,freq=4.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.27704588 = fieldWeight in 2150, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2150)
      0.06666667 = coord(1/15)
    
    Issue
    2., aktualisierte und stark erw. Aufl.
  8. Langville, A.N.; Meyer, C.D.: Google's PageRank and beyond : the science of search engine rankings (2006) 0.00
    3.7806356E-4 = product of:
      0.005670953 = sum of:
        0.005670953 = weight(_text_:in in 6) [ClassicSimilarity], result of:
          0.005670953 = score(doc=6,freq=16.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.12752387 = fieldWeight in 6, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6)
      0.06666667 = coord(1/15)
    
    Abstract
    Why doesn't your home page appear on the first page of search results, even when you query your own name? How do other Web pages always appear at the top? What creates these powerful rankings? And how? The first book ever about the science of Web page rankings, "Google's PageRank and Beyond" supplies the answers to these and other questions and more. The book serves two very different audiences: the curious science reader and the technical computational reader. The chapters build in mathematical sophistication, so that the first five are accessible to the general academic reader. While other chapters are much more mathematical in nature, each one contains something for both audiences. For example, the authors include entertaining asides such as how search engines make money and how the Great Firewall of China influences research. The book includes an extensive background chapter designed to help readers learn more about the mathematics of search engines, and it contains several MATLAB codes and links to sample Web data sets. The philosophy throughout is to encourage readers to experiment with the ideas and algorithms in the text. Any business seriously interested in improving its rankings in the major search engines can benefit from the clear examples, sample code, and list of resources provided. It includes: many illustrative examples and entertaining asides; MATLAB code; accessible and informal style; and complete and self-contained section for mathematics review.
    Content
    Inhalt: Chapter 1. Introduction to Web Search Engines: 1.1 A Short History of Information Retrieval - 1.2 An Overview of Traditional Information Retrieval - 1.3 Web Information Retrieval Chapter 2. Crawling, Indexing, and Query Processing: 2.1 Crawling - 2.2 The Content Index - 2.3 Query Processing Chapter 3. Ranking Webpages by Popularity: 3.1 The Scene in 1998 - 3.2 Two Theses - 3.3 Query-Independence Chapter 4. The Mathematics of Google's PageRank: 4.1 The Original Summation Formula for PageRank - 4.2 Matrix Representation of the Summation Equations - 4.3 Problems with the Iterative Process - 4.4 A Little Markov Chain Theory - 4.5 Early Adjustments to the Basic Model - 4.6 Computation of the PageRank Vector - 4.7 Theorem and Proof for Spectrum of the Google Matrix Chapter 5. Parameters in the PageRank Model: 5.1 The a Factor - 5.2 The Hyperlink Matrix H - 5.3 The Teleportation Matrix E Chapter 6. The Sensitivity of PageRank; 6.1 Sensitivity with respect to alpha - 6.2 Sensitivity with respect to H - 6.3 Sensitivity with respect to vT - 6.4 Other Analyses of Sensitivity - 6.5 Sensitivity Theorems and Proofs Chapter 7. The PageRank Problem as a Linear System: 7.1 Properties of (I - alphaS) - 7.2 Properties of (I - alphaH) - 7.3 Proof of the PageRank Sparse Linear System Chapter 8. Issues in Large-Scale Implementation of PageRank: 8.1 Storage Issues - 8.2 Convergence Criterion - 8.3 Accuracy - 8.4 Dangling Nodes - 8.5 Back Button Modeling
  9. Hearst, M.A.: Search user interfaces (2009) 0.00
    3.5644168E-4 = product of:
      0.005346625 = sum of:
        0.005346625 = weight(_text_:in in 4029) [ClassicSimilarity], result of:
          0.005346625 = score(doc=4029,freq=8.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.120230645 = fieldWeight in 4029, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4029)
      0.06666667 = coord(1/15)
    
    Abstract
    This book outlines the human side of the information seeking process, and focuses on the aspects of this process that can best be supported by the user interface. It describes the methods behind user interface design generally, and search interface design in particular, with an emphasis on how best to evaluate search interfaces. It discusses research results and current practices surrounding user interfaces for query specification, display of retrieval results, grouping retrieval results, navigation of information collections, query reformulation, search personalization, and the broader tasks of sensemaking and text analysis. Much of the discussion pertains to Web search engines, but the book also covers the special considerations surrounding search of other information collections.
    Content
    Inhalt: The design of search user interfaces -- The evaluation of search user interfaces -- Models of the information seeking process -- Query specification -- Presentation of search results -- Query reformulation -- Supporting the search process -- Integrating navigation with search -- Personalization in search -- Information visualization for search interfaces -- Information visualization for text analysis -- Emerging trends in search interfaces. Vgl. die digitale Fassung unter: http://searchuserinterfaces.com.
    Footnote
    Rez. in: JASIST 63(2012) no.12, S. 2555-2556 (M. Efron)

Languages

Types

Subjects