Search (84 results, page 2 of 5)

  • × theme_ss:"Semantisches Umfeld in Indexierung u. Retrieval"
  1. Bettencourt, N.; Silva, N.; Barroso, J.: Semantically enhancing recommender systems (2016) 0.00
    0.0037028994 = product of:
      0.022217397 = sum of:
        0.022217397 = weight(_text_:internet in 3374) [ClassicSimilarity], result of:
          0.022217397 = score(doc=3374,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1957077 = fieldWeight in 3374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=3374)
      0.16666667 = coord(1/6)
    
    Abstract
    As the amount of content and the number of users in social relationships is continually growing in the Internet, resource sharing and access policy management is difficult, time-consuming and error-prone. Cross-domain recommendation of private or protected resources managed and secured by each domain's specific access rules is impracticable due to private security policies and poor sharing mechanisms. This work focus on exploiting resource's content, user's preferences, users' social networks and semantic information to cross-relate different resources through their meta information using recommendation techniques that combine collaborative-filtering techniques with semantics annotations, by generating associations between resources. The semantic similarities established between resources are used on a hybrid recommendation engine that interprets user and resources' semantic information. The recommendation engine allows the promotion and discovery of unknown-unknown resources to users that could not even know about the existence of those resources thus providing means to solve the cross-domain recommendation of private or protected resources.
  2. Ross, J.: ¬A new way of information retrieval : 3-D indexing and concept mapping (2000) 0.00
    0.003504789 = product of:
      0.021028733 = sum of:
        0.021028733 = product of:
          0.0630862 = sum of:
            0.0630862 = weight(_text_:29 in 6171) [ClassicSimilarity], result of:
              0.0630862 = score(doc=6171,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.46638384 = fieldWeight in 6171, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6171)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    25. 2.1997 10:29:16
  3. Shiri, A.A.; Revie, C.; Chowdhury, G.: Thesaurus-enhanced search interfaces (2002) 0.00
    0.003504789 = product of:
      0.021028733 = sum of:
        0.021028733 = product of:
          0.0630862 = sum of:
            0.0630862 = weight(_text_:29 in 3807) [ClassicSimilarity], result of:
              0.0630862 = score(doc=3807,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.46638384 = fieldWeight in 3807, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3807)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    18. 5.2002 17:29:00
  4. Shiri, A.A.; Revie, C.: ¬The effects of topic complexity and familiarity on cognitive and physical moves in a thesaurus-enhanced search environment (2003) 0.00
    0.003504789 = product of:
      0.021028733 = sum of:
        0.021028733 = product of:
          0.0630862 = sum of:
            0.0630862 = weight(_text_:29 in 4695) [ClassicSimilarity], result of:
              0.0630862 = score(doc=4695,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.46638384 = fieldWeight in 4695, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4695)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Journal of information science. 29(2003) no.6, S.517-
  5. Chen, H.; Lally, A.M.; Zhu, B.; Chau, M.: HelpfulMed : Intelligent searching for medical information over the Internet (2003) 0.00
    0.00308575 = product of:
      0.018514499 = sum of:
        0.018514499 = weight(_text_:internet in 1615) [ClassicSimilarity], result of:
          0.018514499 = score(doc=1615,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 1615, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1615)
      0.16666667 = coord(1/6)
    
  6. Hauer, M: Silicon Valley Vorarlberg : Maschinelle Indexierung und semantisches Retrieval verbessert den Katalog der Vorarlberger Landesbibliothek (2004) 0.00
    0.00308575 = product of:
      0.018514499 = sum of:
        0.018514499 = weight(_text_:internet in 2489) [ClassicSimilarity], result of:
          0.018514499 = score(doc=2489,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 2489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
      0.16666667 = coord(1/6)
    
    Abstract
    10 Jahre Internet haben die WeIt um die Bibliotheken herum stark geändert. Der Web-OPAC war eine Antwort der Bibliotheken. Doch reicht ein Web-OPAC im Zeitalter des Internets noch aus? Außer Web ist es doch der alte Katalog. Ca. 90% aller Bibliotheksrecherchen durch Benutzer sind Themenrecherchen. Ein Anteil dieser Recherchen bringt kein Ergebnis. Es kann leicht gemessen werden, dass null Medien gefunden wurden. Die Gründe hierfür wurden auch immer wieder untersucht: Plural- anstelle Singularformen, zu spezifische Suchbegriffe, Schreib- oder Bedienungsfehler. Zu wenig untersucht sind aber die Recherchen, die nicht mit einer Ausleihe enden, denn auch dann kann man in vielen Fällen von einem Retrieval-Mangel ausgehen. Schließlich: Von den ausgeliehenen Büchern werden nach Einschätzung vieler Bibliothekare 80% nicht weiter als bis zum Inhaltsverzeichnis gelesen (außer in Präsenzbibliotheken) - und erst nach Wochen zurückgegeben. Ein Politiker würde dies neudeutsch als "ein Vermittlungsproblem" bezeichnen. Ein Controller als nicht hinreichende Kapitalnutzung. Einfacher machen es sich immer mehr Studenten und Wissenschaftler, ihr Wissensaustausch vollzieht sich zunehmend an anderen Orten. Bibliotheken (als Funktion) sind unverzichtbar für die wissenschaftliche Kommunikation. Deshalb geht es darum, Wege zu finden und auch zu beschreiten, welche die Schätze von Bibliotheken (als Institution) effizienter an die Zielgruppe bringen. Der Einsatz von Information Retrieval-Technologie, neue Erschließungsmethoden und neuer Content sind Ansätze dazu. Doch die bisherigen Verbundstrukturen und Abhängigkeit haben das hier vorgestellte innovative Projekt keineswegs gefördert. Innovation entsteht wie die Innvoationsforschung zeigt eigentlich immer an der Peripherie: in Bregenz fing es an.
  7. Bergamaschi, S.; Domnori, E.; Guerra, F.; Rota, S.; Lado, R.T.; Velegrakis, Y.: Understanding the semantics of keyword queries on relational data without accessing the instance (2012) 0.00
    0.00308575 = product of:
      0.018514499 = sum of:
        0.018514499 = weight(_text_:internet in 431) [ClassicSimilarity], result of:
          0.018514499 = score(doc=431,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=431)
      0.16666667 = coord(1/6)
    
    Abstract
    The birth of the Web has brought an exponential growth to the amount of the information that is freely available to the Internet population, overloading users and entangling their efforts to satisfy their information needs. Web search engines such Google, Yahoo, or Bing have become popular mainly due to the fact that they offer an easy-to-use query interface (i.e., based on keywords) and an effective and efficient query execution mechanism. The majority of these search engines do not consider information stored on the deep or hidden Web [9,28], despite the fact that the size of the deep Web is estimated to be much bigger than the surface Web [9,47]. There have been a number of systems that record interactions with the deep Web sources or automatically submit queries them (mainly through their Web form interfaces) in order to index their context. Unfortunately, this technique is only partially indexing the data instance. Moreover, it is not possible to take advantage of the query capabilities of data sources, for example, of the relational query features, because their interface is often restricted from the Web form. Besides, Web search engines focus on retrieving documents and not on querying structured sources, so they are unable to access information based on concepts.
  8. Renker, L.: Exploration von Textkorpora : Topic Models als Grundlage der Interaktion (2015) 0.00
    0.00308575 = product of:
      0.018514499 = sum of:
        0.018514499 = weight(_text_:internet in 2380) [ClassicSimilarity], result of:
          0.018514499 = score(doc=2380,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 2380, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss. Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar. Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden. Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden. Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
  9. Bhansali, D.; Desai, H.; Deulkar, K.: ¬A study of different ranking approaches for semantic search (2015) 0.00
    0.00308575 = product of:
      0.018514499 = sum of:
        0.018514499 = weight(_text_:internet in 2696) [ClassicSimilarity], result of:
          0.018514499 = score(doc=2696,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 2696, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2696)
      0.16666667 = coord(1/6)
    
    Abstract
    Search Engines have become an integral part of our day to day life. Our reliance on search engines increases with every passing day. With the amount of data available on Internet increasing exponentially, it becomes important to develop new methods and tools that help to return results relevant to the queries and reduce the time spent on searching. The results should be diverse but at the same time should return results focused on the queries asked. Relation Based Page Rank [4] algorithms are considered to be the next frontier in improvement of Semantic Web Search. The probability of finding relevance in the search results as posited by the user while entering the query is used to measure the relevance. However, its application is limited by the complexity of determining relation between the terms and assigning explicit meaning to each term. Trust Rank is one of the most widely used ranking algorithms for semantic web search. Few other ranking algorithms like HITS algorithm, PageRank algorithm are also used for Semantic Web Searching. In this paper, we will provide a comparison of few ranking approaches.
  10. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.00
    0.00308575 = product of:
      0.018514499 = sum of:
        0.018514499 = weight(_text_:internet in 4063) [ClassicSimilarity], result of:
          0.018514499 = score(doc=4063,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 4063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.16666667 = coord(1/6)
    
  11. Ingwersen, P.; Järvelin, K.: ¬The turn : integration of information seeking and retrieval in context (2005) 0.00
    0.0029837745 = product of:
      0.017902646 = sum of:
        0.017902646 = weight(_text_:bibliothek in 1323) [ClassicSimilarity], result of:
          0.017902646 = score(doc=1323,freq=2.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.113400325 = fieldWeight in 1323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1323)
      0.16666667 = coord(1/6)
    
    Footnote
    - Kapitel fünf enthält einen entsprechenden Überblick über die kognitive und benutzerorientierte IR-Tradition. Es zeigt, welche anderen (als nur die labororientierten) IR-Studien durchgeführt werden können, wobei sich die Betrachtung von frühen Modellen (z.B. Taylor) über Belkins ASK-Konzept bis zu Ingwersens Modell der Polyrepräsentation, und von Bates Berrypicking-Ansatz bis zu Vakkaris "taskbased" IR-Modell erstreckt. Auch Web-IR, OKAPI und Diskussionen zum Relevanzbegriff werden hier thematisiert. - Im folgenden Kapitel schlagen die Autoren ein integriertes IS&R Forschungsmodell vor, bei dem die vielfältigen Beziehungen zwischen Informationssuchenden, Systementwicklern, Oberflächen und anderen beteiligten Aspekten berücksichtigt werden. Ihr Ansatz vereint die traditionelle Laborforschung mit verschiedenen benutzerorientierten Traditionen aus IS&R, insbesondere mit den empirischen Ansätzen zu IS und zum interaktiven IR, in einem holistischen kognitiven Modell. - Kapitel sieben untersucht die Implikationen dieses Modells für IS&R, wobei besonders ins Auge fällt, wie komplex die Anfragen von Informationssuchenden im Vergleich mit der relativen Einfachheit der Algorithmen zum Auffinden relevanter Dokumente sind. Die Abbildung der vielfältig variierenden kognitiven Zustände der Anfragesteller im Rahmen der der Systementwicklung ist sicherlich keine triviale Aufgabe. Wie dabei das Problem der Einbeziehung des zentralen Aspektes der Bedeutung gelöst werden kann, sei dahingestellt. - Im achten Kapitel wird der Versuch unternommen, die zuvor diskutierten Punkte in ein IS&R-Forschungsprogramm (Prozesse - Verhalten - Systemfunktionalität - Performanz) umzusetzen, wobei auch einige kritische Anmerkungen zur bisherigen Forschungspraxis getroffen werden. - Das abschliessende neunte Kapitel fasst das Buch kurz zusammen und kann somit auch als Einstieg in dieThematik gelesen werden. Darauffolgen noch ein sehr nützliches Glossar zu allen wichtigen Begriffen, die in dem Buch Verwendung finden, eine Bibliographie und ein Sachregister. Ingwersen und Järvelin haben hier ein sehr anspruchsvolles und dennoch lesbares Buch vorgelegt. Die gebotenen Übersichtskapitel und Diskussionen sind zwar keine Einführung in die Informationswissenschaft, decken aber einen grossen Teil der heute in dieser Disziplin aktuellen und durch laufende Forschungsaktivitäten und Publikationen berührten Teilbereiche ab. Man könnte es auch - vielleicht ein wenig überspitzt - so formulieren: Was hier thematisiert wird, ist eigentlich die moderne Informationswissenschaft. Der Versuch, die beiden Forschungstraditionen zu vereinen, wird diesem Werk sicherlich einen Platz in der Geschichte der Disziplin sichern. Nicht ganz glücklich erscheint der Titel des Buches. "The Turn" soll eine Wende bedeuten, nämlich jene hin zu einer integrierten Sicht von IS und IR. Das geht vermutlich aus dem Untertitel besser hervor, doch dieser erschien den Autoren wohl zu trocken. Schade, denn "The Turn" gibt es z.B. in unserem Verbundkatalog bereits, allerdings mit dem Zusatz "from the Cold War to a new era; the United States and the Soviet Union 1983-1990". Der Verlag, der abgesehen davon ein gediegenes (wenn auch nicht gerade wohlfeiles) Produkt vorgelegt hat, hätte derlei unscharfe Duplizierend besser verhindert. Ungeachtet dessen empfehle ich dieses wichtige Buch ohne Vorbehalt zur Anschaffung; es sollte in keiner grösseren Bibliothek fehlen."
  12. Stojanovic, N.: On the query refinement in the ontology-based searching for information (2005) 0.00
    0.0029206579 = product of:
      0.017523946 = sum of:
        0.017523946 = product of:
          0.052571837 = sum of:
            0.052571837 = weight(_text_:29 in 2907) [ClassicSimilarity], result of:
              0.052571837 = score(doc=2907,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.38865322 = fieldWeight in 2907, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2907)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    5. 4.1996 15:29:15
  13. Rekabsaz, N. et al.: Toward optimized multimodal concept indexing (2016) 0.00
    0.0028943846 = product of:
      0.017366307 = sum of:
        0.017366307 = product of:
          0.05209892 = sum of:
            0.05209892 = weight(_text_:22 in 2751) [ClassicSimilarity], result of:
              0.05209892 = score(doc=2751,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.38690117 = fieldWeight in 2751, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2751)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    1. 2.2016 18:25:22
  14. Kozikowski, P. et al.: Support of part-whole relations in query answering (2016) 0.00
    0.0028943846 = product of:
      0.017366307 = sum of:
        0.017366307 = product of:
          0.05209892 = sum of:
            0.05209892 = weight(_text_:22 in 2754) [ClassicSimilarity], result of:
              0.05209892 = score(doc=2754,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.38690117 = fieldWeight in 2754, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2754)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    1. 2.2016 18:25:22
  15. Marx, E. et al.: Exploring term networks for semantic search over RDF knowledge graphs (2016) 0.00
    0.0028943846 = product of:
      0.017366307 = sum of:
        0.017366307 = product of:
          0.05209892 = sum of:
            0.05209892 = weight(_text_:22 in 3279) [ClassicSimilarity], result of:
              0.05209892 = score(doc=3279,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.38690117 = fieldWeight in 3279, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3279)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou
  16. Kopácsi, S. et al.: Development of a classification server to support metadata harmonization in a long term preservation system (2016) 0.00
    0.0028943846 = product of:
      0.017366307 = sum of:
        0.017366307 = product of:
          0.05209892 = sum of:
            0.05209892 = weight(_text_:22 in 3280) [ClassicSimilarity], result of:
              0.05209892 = score(doc=3280,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.38690117 = fieldWeight in 3280, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3280)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou
  17. Sacco, G.M.: Dynamic taxonomies and guided searches (2006) 0.00
    0.0028652947 = product of:
      0.017191768 = sum of:
        0.017191768 = product of:
          0.0515753 = sum of:
            0.0515753 = weight(_text_:22 in 5295) [ClassicSimilarity], result of:
              0.0515753 = score(doc=5295,freq=4.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.38301262 = fieldWeight in 5295, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5295)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 7.2006 17:56:22
  18. Case, D.O.: Looking for information : a survey on research on information seeking, needs, and behavior (2002) 0.00
    0.0026183454 = product of:
      0.015710073 = sum of:
        0.015710073 = weight(_text_:internet in 1270) [ClassicSimilarity], result of:
          0.015710073 = score(doc=1270,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.13838623 = fieldWeight in 1270, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1270)
      0.16666667 = coord(1/6)
    
    Footnote
    Rez. in: JASIST 54(2003) no.7, S.695-697 (R. Savolainen): "Donald O. Case has written an ambitious book to create an overall picture of the major approaches to information needs and seeking (INS) studies. The aim to write an extensive review is reflected in the list of references containing about 700 items. The high ambitions are explained an p. 14, where Case states that he is aiming at a multidisciplinary understanding of the concept of information seeking. In the Preface, the author characterizes his book as an introduction to the topic for students at the graduate level, as well as as a review and handbook for scholars engagged in information behavior research. In my view, Looking for Information is particularly welcome as an academic textbook because the field of INS studies suffers from the lack of monographs. Along with the continuous growth of the number of journal articles and conference papers, there is a genuine need for a book that picks up the numerous pieces and puts them together. The use of the study as a textbook is facilitated by clearly delineated sections an major themes and the wealth of concrete examples of information seeking in everyday contexts. The book is lucidly written and it is accessible to novice readers, too. At first glance, the idea of providing a comprehensive review of INS studies may seem a mission impossible because the current number of articles, papers, and other contributions in this field is nearing the 10,000 range (p. 224). Donald Case is not alone in the task of coming to grips with an increasing number of studies; similar problems have been faced by those writing INS-related chapters for the Annual Review of Information Science and Technology (ARIST). Case has solved the problem of "too many publications to be reviewed" by concentrating an the INS literature published during the last two decades. Secondly, studies an library use and information retrieval are discussed only to a limited extent. In addition, Case is highly selective as to studies focusing an the use of specific sources and channels such as WWW. These delineations are reasonable, even though they beg some questions. First, how should one draw the line between studies an information seeking and information retrieval? Case does not discuss this question in greater detail, although in recent years, the overlapping areas of information seeking and retrieval studies have been broadened, along with the growing importance of WWW in information seeking/retrieval. Secondly, how can one define the concept of information searching (or, more specifically, Internet or Web searching) in relation to information seeking and information retrieval? In the field of Web searching studies, there is an increasing number of contributions that are of direct relevance to information-seeking studies. Clearly, the advent of the Internet, particularly, the Web, has blurred the previous lines between INS and IR literature, making them less clear cut. The book consists of five main sections, and comprises 13 chapters. There is an Appendix serving the needs of an INS textbook (questions for discussion and application). The structure of the book is meticulously planned and, as a whole, it offers a sufficiently balanced contribution to theoretical, methodological, and empirical issues of INS. The title, Looking for Information: A Survey of Research an Information Seeking, Needs, and Behavior aptly describes the main substance of the book. . . . It is easy to agree with Case about the significance of the problem of specialization and fragmentation. This problem seems to be concomitant with the broadening field of INS research. In itself, Case's book can be interpreted as a struggle against this fragmentation. His book suggests that this struggle is not hopeless and that it is still possible to draw an overall picture of the evolving research field. The major pieces of the puzzle were found and the book will provide a useful overview of INS studies for many years."
  19. Imhof, A.: RSWK/SWD und Faceted Browsing : neue Möglichkeiten einer inhaltlich-intuitiven Navigation (2006) 0.00
    0.0024685997 = product of:
      0.014811598 = sum of:
        0.014811598 = weight(_text_:internet in 5946) [ClassicSimilarity], result of:
          0.014811598 = score(doc=5946,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1304718 = fieldWeight in 5946, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
      0.16666667 = coord(1/6)
    
    Content
    "Die kontinuierliche Optimierung der Informationsversorgung ist ein von allen Seiten unterstütztes Ziel in Forschung und Lehre. Neben der Verfügbarkeit an Literatur ist das Organisieren derselben, aber auch das Suchen, Finden und Erhalten von Informationen angesprochen. Die Anstrengungen der vergangenen Jahre für eine verbesserte Literaturrecherche haben in der Bibliothekswelt bereits zu einigen Erfolgen geführt. Inzwischen ist es selbstverständlich geworden, über das Internet in deutschen und internationalen Online-Katalogen nach relevanter Literatur zu suchen. Weiterführende Dienste wie Dokumentenlieferung oder direkte Verlinkung zu elektronischen Volltexten sind dabei nahtlos eingebunden. Die Weiterentwicklung bibliothekarischer Dienstleistungen werden ohne Unterbrechung vorangetrieben, zumal freie Suchmaschinen wie Google im "Information Retrieval", insbesondere durch Google-Scholar und Google-Buchsuche, einen beträchtlichen Konkurrenzdruck auf die Bibliotheken ausüben. Dabei drängt sich insgesamt der Eindruck auf, dass die Bibliotheken gegenüber den freien Suchmaschinen deren Entwicklungen hinterherlaufen. Ohne es als solches wahrzunehmen, verfügen die Bibliotheken im deutschsprachigen Raum jedoch über ein Instrument, mit dem sie im Wettbewerb mit Google um die Nutzerinnen wieder ihre Vorzüge herausstellen können. Es existiert längst ein Konzept, mit dessen Hilfe die Literaturrecherche inhaltlich-intuitiv gestaltet und damit ein Vorteil der Bibliotheksrecherche gegenüber kommerziellen Suchmaschinen herausgearbeitet werden kann. Das Konzept heißt "Regeln für den Schlagwortkatalog" (RSWK)' und bietet im Zusammenhang mit dem mittlerweile nicht mehr ganz so neuen Navigationskonzept "Faceted Browsing" ungeahnte Möglichkeiten eines intuitiven Recherschewerkzeuges, das Literatur gezielt inhaltlich entdecken lässt.
  20. Schek, M.: Automatische Klassifizierung in Erschließung und Recherche eines Pressearchivs (2006) 0.00
    0.0024685997 = product of:
      0.014811598 = sum of:
        0.014811598 = weight(_text_:internet in 6043) [ClassicSimilarity], result of:
          0.014811598 = score(doc=6043,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1304718 = fieldWeight in 6043, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=6043)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und für Recherchezwecke bereitstellt. Die DIZ-Pressedatenbank (www.medienport.de) ermöglicht die browserbasierte Recherche für Redakteure und externe Kunden im Intra- und Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZ-Pressedatenbank enthält z. Zt. 7,8 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 durch Dokumentare inhaltlich erschlossen werden. Die Informationserschließung erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, die untereinander zum "DIZ-Wissensnetz" verlinkt sind. DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Qualitätssicherung der Dossiers auf. Im Zuge der Medienkrise mussten sich DIZ der Herausforderung stellen, bei sinkenden Lektoratskapazitäten die Qualität der Informationserschließung im Input zu erhalten. Auf der Outputseite gilt es, eine anspruchsvolle Zielgruppe - u.a. die Redakteure der Süddeutschen Zeitung - passgenau und zeitnah mit den Informationen zu versorgen, die sie für ihre tägliche Arbeit benötigt. Bezogen auf die Ausgangssituation in der Dokumentation der Süddeutschen Zeitung identifizierte DIZ drei Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: - (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) - Visualisierung des Wissensnetzes - Neue Retrievalmöglichkeiten (Ähnlichkeitssuche, Clustering) Im Bereich "Visualisierung" setzt DIZ auf den Net-Navigator von intelligent views, eine interaktive Visualisierung allgemeiner Graphen, basierend auf einem physikalischen Modell. In den Bereichen automatische Klassifizierung, Ähnlichkeitssuche und Clustering hat DIZ sich für das Produkt nextBot der Firma Brainbot entschieden.

Years

Languages

  • e 60
  • d 23
  • f 1
  • More… Less…

Types

  • a 72
  • el 8
  • m 6
  • x 2
  • r 1
  • s 1
  • More… Less…