Search (107 results, page 1 of 6)

  • × theme_ss:"Suchmaschinen"
  • × language_ss:"d"
  1. Zutter, S.: Alles dreht sich um die Suche : Information Online Konferenz in Sydney, Australien (2005) 0.02
    0.021379996 = product of:
      0.064139985 = sum of:
        0.036276564 = weight(_text_:open in 3423) [ClassicSimilarity], result of:
          0.036276564 = score(doc=3423,freq=2.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.24876907 = fieldWeight in 3423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.020551153 = weight(_text_:access in 3423) [ClassicSimilarity], result of:
          0.020551153 = score(doc=3423,freq=2.0), product of:
            0.10975764 = queryWeight, product of:
              3.389428 = idf(docFreq=4053, maxDocs=44218)
              0.03238235 = queryNorm
            0.18724121 = fieldWeight in 3423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.389428 = idf(docFreq=4053, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.0073122694 = product of:
          0.021936808 = sum of:
            0.021936808 = weight(_text_:22 in 3423) [ClassicSimilarity], result of:
              0.021936808 = score(doc=3423,freq=2.0), product of:
                0.11339747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03238235 = queryNorm
                0.19345059 = fieldWeight in 3423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
          0.33333334 = coord(1/3)
      0.33333334 = coord(3/9)
    
    Abstract
    Mit über 1100 Delegierten und 85 Ausstellern stellte die zwölfte Information Online auch 2005 wieder die im Raum Asien und Pazifik größte und renommierteste regionale Fachmesse für den Informationsbereich dar. Alle zwei Jahre veranstaltet der australische Informationsberufe-Verband ALIA in Sydney die Tagung mit Fachreferenten aus Australien, Asien, Europa und USA. An drei bis fünf Tagen kommen hier Bibliothekare und Informationsspezialisten aus Australien und Neuseeland, Indien, Malaysien, Amerika, und Europa zusammen, um sich anhand von Vorträgen, Workshops, einer Fachausstellung und reichlich Gelegenheiten für informelles Networking einen Überblick über den sich rasant entwickelnden Markt des elektronischen Informationsmanagement und der Informationsversorgung zu verschaffen. 60 Referenten und neun Hauptredner (Angela Abell, Kate Andrews, Liesle Capper, Peter Crowe, Prof. Brian Fitzgerald, David Hawking, Mary Lee Kennedy, Hemant Manohar, Joan Frye Williams) lieferten Forschungsergebnisse, Fallstudien, Fortschrifttsberichte und programmatische Thesen aus den Themenbereichen Informationsarchitektur, Online Archive, Content Management Systeme, Urheberrecht und WWW, Web Services für Bibliotheken und Informationsstellen, Benutzungsschemata für Web-Technologien, Schnittstellen, Datenpool, Bibliotheksautomation, Referenzservice online, Metadaten für Informationssysteme und für Organisationen, Wissenschaftliches Publizieren, Open Access, Knowledge Management und intellektuelles Kapital, Benutzerpsychologie, Online lernen, Berufsbild Informationsspezialist. Ein Drittel der Beiträge beschäftigte sich mit Fragen rund um Information beziehungsweise Knowledge Discovery Search, Search und nochmals Search. Dreht sich angesichts der kommerziellen Erfolge von Google und Konsorten denn alles nur noch um die Websuche?
    Date
    22. 5.2005 13:51:43
  2. Handreck, F.; Mönnich, M.W.: Google Scholar als Alternative zu wissenschaftlichen Fachdatenbanken (2008) 0.02
    0.017679734 = product of:
      0.079558805 = sum of:
        0.05078719 = weight(_text_:open in 3626) [ClassicSimilarity], result of:
          0.05078719 = score(doc=3626,freq=2.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.3482767 = fieldWeight in 3626, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3626)
        0.028771617 = weight(_text_:access in 3626) [ClassicSimilarity], result of:
          0.028771617 = score(doc=3626,freq=2.0), product of:
            0.10975764 = queryWeight, product of:
              3.389428 = idf(docFreq=4053, maxDocs=44218)
              0.03238235 = queryNorm
            0.2621377 = fieldWeight in 3626, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.389428 = idf(docFreq=4053, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3626)
      0.22222222 = coord(2/9)
    
    Abstract
    Seit dem Start von Google Scholar als einem neuartigen Suchdienst für wissenschaftliche Literatur (in der englischen Version im November 2004 und in der deutschen Version im April 2006), sorgt dieser Dienst für Gesprächsstoff unter Fachleuten. In diesem Beitrag wird nicht untersucht, wie vollständig Zeitschriftenlisten von Fachdatenbanken oder Verlagen und die Indexierung von Open Access Hochschulschriftenservern durch Google Scholar abgedeckt werden und auch das Pageranking und die Indexierungshäufigkeit von Google Scholar stehen nicht im Fokus, sondern es geht um die praktische Anwendung dieses Suchdienstes bei wissenschaftlichen Literaturrecherchen. Wie müssen Suchanfragen formuliert werden, um thematisch passende Ergebnisse zu bekommen und wie viele relevante Ergebnisse gibt es innerhalb dieser Treffermengen.
  3. Gillitzer, B.: Yewno (2017) 0.02
    0.017103998 = product of:
      0.051311992 = sum of:
        0.029021252 = weight(_text_:open in 3447) [ClassicSimilarity], result of:
          0.029021252 = score(doc=3447,freq=2.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.19901526 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.016440922 = weight(_text_:access in 3447) [ClassicSimilarity], result of:
          0.016440922 = score(doc=3447,freq=2.0), product of:
            0.10975764 = queryWeight, product of:
              3.389428 = idf(docFreq=4053, maxDocs=44218)
              0.03238235 = queryNorm
            0.14979297 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.389428 = idf(docFreq=4053, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.0058498154 = product of:
          0.017549446 = sum of:
            0.017549446 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.017549446 = score(doc=3447,freq=2.0), product of:
                0.11339747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03238235 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.33333334 = coord(1/3)
      0.33333334 = coord(3/9)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  4. Cornelius, P.; Schneemann, R.; Weisel, L.: SUMA-Kongress 2011 - eine bemerkenswerte Tagung ! (2011) 0.01
    0.01369029 = product of:
      0.12321261 = sum of:
        0.12321261 = weight(_text_:kongress in 2097) [ClassicSimilarity], result of:
          0.12321261 = score(doc=2097,freq=2.0), product of:
            0.21246347 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.03238235 = queryNorm
            0.57992375 = fieldWeight in 2097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.0625 = fieldNorm(doc=2097)
      0.11111111 = coord(1/9)
    
  5. Tetzchner, J. von: As a monopoly in search and advertising Google is not able to resist the misuse of power : is the Internet turning into a battlefield of propaganda? How Google should be regulated (2017) 0.01
    0.012970847 = product of:
      0.05836881 = sum of:
        0.043983 = weight(_text_:open in 3891) [ClassicSimilarity], result of:
          0.043983 = score(doc=3891,freq=6.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.3016165 = fieldWeight in 3891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3891)
        0.014385808 = weight(_text_:access in 3891) [ClassicSimilarity], result of:
          0.014385808 = score(doc=3891,freq=2.0), product of:
            0.10975764 = queryWeight, product of:
              3.389428 = idf(docFreq=4053, maxDocs=44218)
              0.03238235 = queryNorm
            0.13106886 = fieldWeight in 3891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.389428 = idf(docFreq=4053, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3891)
      0.22222222 = coord(2/9)
    
    Abstract
    Jon von Tetzchner entwickelte die Browser Opera und Vivaldi. Er ist Mitgründer und CEO von Vivaldi Technologies. Zuletzt wandelte er sich vom Google-Enthusiasten zum Google-Kritiker. Im Interview mit Open Password stellt er seine Positionen dar. Der gebürtige Isländer arbeitete lange in Norwegen und residiert neuerdings in der Nähe von Boston.
    Content
    "Let us start with your positive experiences with Google. I have known Google longer than most. At Opera, we were the first to add their search into the browser interface, enabling it directly from the search box and the address field. At that time, Google was an up-and-coming geeky company. I remember vividly meeting with Google's co-founder Larry Page, his relaxed dress code and his love for the Danger device, which he played with throughout our meeting. Later, I met with the other co-founder of Google, Sergey Brin, and got positive vibes. My first impression of Google was that it was a likeable company. Our cooperation with Google was a good one. Integrating their search into Opera helped us deliver a better service to our users and generated revenue that paid the bills. We helped Google grow, along with others that followed in our footsteps and integrated Google search into their browsers. Then the picture for you and for opera darkened. Yes, then things changed. Google increased their proximity with the Mozilla foundation. They also introduced new services such as Google Docs. These services were great, gained quick popularity, but also exposed the darker side of Google. Not only were these services made to be incompatible with Opera, but also encouraged users to switch their browsers. I brought this up with Sergey Brin, in vain. For millions of Opera users to be able to access these services, we had to hide our browser's identity. The browser sniffing situation only worsened after Google started building their own browser, Chrome. ...
    How should Google be regulated? We should limit the amount of information that is being collected. In particular we should look at information that is being collected across sites. It should not be legal to combine data from multiple sites and services. The fact that these sites and services are using the same underlying technology does not change the fact that the user's dealings is with a site at a time and each site should not have the right to share the data with others. I believe this the cornerstone of laws in many countries today, but these laws need to be enforced. Data about us is ours alone and it should not be possible to sell it. We should also limit the ability to target users individually. In the past, ads on sites were ads on sites. You might know what kind of users visited a site and you would place tech ads on tech sites and fashion ads on fashion sites. Now the ads follow you individually. That should be made illegal as it uses data collected from multiple sources and invades our privacy. I also believe there should be regulation as to how location data is used and any information related to our mobile devices. In addition, regulators need to be vigilant as to how companies that have monopoly power use their power. That kind of goes without saying. Companies with monopoly powers should not be able to use those powers when competing in an open market or using their monopoly services to limit competition."
    Source
    Open Password. 2017, Nr.266 vom 13.10.2017 [http://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=339&wysijap=subscriptions&user_id=1045]
  6. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.01
    0.012635273 = product of:
      0.11371746 = sum of:
        0.11371746 = weight(_text_:konstanz in 1159) [ClassicSimilarity], result of:
          0.11371746 = score(doc=1159,freq=2.0), product of:
            0.18256405 = queryWeight, product of:
              5.637764 = idf(docFreq=427, maxDocs=44218)
              0.03238235 = queryNorm
            0.6228908 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.637764 = idf(docFreq=427, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
      0.11111111 = coord(1/9)
    
    Imprint
    Konstanz : UVK
  7. Google Scholar : Eine Konkurrenz zu Web of Knowledge and Scopus? (2005) 0.01
    0.012628381 = product of:
      0.056827717 = sum of:
        0.036276564 = weight(_text_:open in 4381) [ClassicSimilarity], result of:
          0.036276564 = score(doc=4381,freq=2.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.24876907 = fieldWeight in 4381, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4381)
        0.020551153 = weight(_text_:access in 4381) [ClassicSimilarity], result of:
          0.020551153 = score(doc=4381,freq=2.0), product of:
            0.10975764 = queryWeight, product of:
              3.389428 = idf(docFreq=4053, maxDocs=44218)
              0.03238235 = queryNorm
            0.18724121 = fieldWeight in 4381, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.389428 = idf(docFreq=4053, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4381)
      0.22222222 = coord(2/9)
    
    Content
    "Am 18. November 2004 ist die Beta-Version eines neuen Suchdienstes von Google in Betrieb gegangen: Google Scholar (http/scholar.google.com/), das in Zusammenarbeit mit zahlreichen Fachverlagen entstand, soll Studenten und Wissenschaftlern als erste Anlaufstelle bei der Suche nach akademischen Quellen dienen, heißt es bei den Betreibern. Google Scholar erfasst Bücher, wissenschaftliche Abhandlungen, technische Dokumente, Fachzeitschriften und sonstige Literatur, darunter auch Quellen, die via Open Access frei verfügbar sind, zusammen ca. 1,630.000 Dokumente (im Vergleich dazu verzeichnet das Web of Knowledge ca. 18,500.000 und Scopus 26,733,641 Dokumente). Neben Links zu weiterführenden Bibliotheks-Recherchen bieten die Ergebnislisten auch einen Überblick darüber, wie oft das gefundene Dokument in anderen Publikationen zitiert wurde. Die Trefferliste ist nach absteigender Zitierhäufigkeit gereiht; die Treffer werden zusätzlich aufgewertet, wenn sie ihrerseits von vielzitierten Artikeln zitiert werden. Google Scholar kommt vorerst noch ohne Werbung aus, Branchenkenner rechnen aber damit, dass sich die Sparten-Suchmaschine schon bald zu einer profitablen Angelegenheit für die Betreiber entwickeln wird. "Wirtschaftlich zielt der Dienst darauf ab, akademische Inhalte mit Werbung für hochwertige Produkte und Dienstleistungen zu verknüpfen -- und ich glaube das Konzept geht auf", meint John Sack von der Stanford University. Mark Chillingworth meint sogar: "Google Scholar looks like being a bigger headache to AM services like ISI Web of Knowledge and the newly launched Scopus from Elsevier." [!] Die weitere Entwicklung wird zeigen, ob diese Vermutung berechtigt ist. Am 8. Dezember hat die American Chemical Society Klage gegen Google Scholar wegen der Namensähnlichkeit mit dem SciFinder Scholar eingereicht. Google-Sprecher Steve Langdon wollte sich zu dem Sachverhalt nicht im Detail äußern, sagte lediglich, dass sein Unternehmen von der Nutzung des Begriffs Scholar überzeugt ist und die Klage der ACS gegenstandslos ist."
  8. Stock, M.; Stock, W.G.: Klassifikation und terminologische Kontrolle : Yahoo!, Open Directory und Oingo im Vergleich (2000) 0.01
    0.011170287 = product of:
      0.10053258 = sum of:
        0.10053258 = weight(_text_:open in 5496) [ClassicSimilarity], result of:
          0.10053258 = score(doc=5496,freq=6.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.68940914 = fieldWeight in 5496, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0625 = fieldNorm(doc=5496)
      0.11111111 = coord(1/9)
    
    Abstract
    In Password 11/2000 wurden durch einen Retrievaltest die qualitativ führenden Suchwerkzeuge im Internet bestimmt. In den nächsten Teilen unseres State of the Art - Berichts über Retrievalsysteme im World Wide Weh beschreiben wir einzelne interessante Ansätze der Technik der TopSuchwerkzeuge. Den Anfang machen die klassifikatorischen Verzeichnisse Yahoo! und das Open Directory-Projekt sowie das System Oingo, das im Rahmen eines "semantischen Retrievals" das Homonym- und Synonymproblem angeht
    Object
    Open Directory
  9. Klaus, H.: ¬Das Internet als Recherchemethode im Medizin-Journalismus : Meinung und Akzeptanz der Wissenschaftsjournalisten (2000) 0.01
    0.009680497 = product of:
      0.087124474 = sum of:
        0.087124474 = weight(_text_:kongress in 5523) [ClassicSimilarity], result of:
          0.087124474 = score(doc=5523,freq=4.0), product of:
            0.21246347 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.03238235 = queryNorm
            0.41006804 = fieldWeight in 5523, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
      0.11111111 = coord(1/9)
    
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  10. Wolff, C.: Effektivität von Recherchen im WWW : Vergleichende Evaluierung von such- und Metasuchmaschinen (2000) 0.01
    0.008844691 = product of:
      0.07960222 = sum of:
        0.07960222 = weight(_text_:konstanz in 5463) [ClassicSimilarity], result of:
          0.07960222 = score(doc=5463,freq=2.0), product of:
            0.18256405 = queryWeight, product of:
              5.637764 = idf(docFreq=427, maxDocs=44218)
              0.03238235 = queryNorm
            0.43602353 = fieldWeight in 5463, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.637764 = idf(docFreq=427, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5463)
      0.11111111 = coord(1/9)
    
    Imprint
    Konstanz : UVK, Universitätsverlag
  11. Sander-Beuermann, W.: Förderpreis Suchmaschinen : SuMa Awards 2008 (2007) 0.01
    0.008556431 = product of:
      0.07700788 = sum of:
        0.07700788 = weight(_text_:kongress in 6025) [ClassicSimilarity], result of:
          0.07700788 = score(doc=6025,freq=2.0), product of:
            0.21246347 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.03238235 = queryNorm
            0.36245233 = fieldWeight in 6025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6025)
      0.11111111 = coord(1/9)
    
    Content
    "Der SuMa-eV vergibt zusammen mit dem Bundesverband Deutscher Internet-Portale (BDIP) die »SuMa Awards 2008« als neue Förderpreise für Suchmaschinen. Die SuMa Awards sprechen Programmierer, Künstler, Schriftsteller, Journalisten, Juristen, Wirtschaftswissenschaftler, Soziologen, Bibliothekare, Archivare, Mediziner, Eltern und jedem an, die/der die Veränderungen durch und den Einfluss von Suchmaschinen in seinem Umfeld oder für unsere Gesellschaft verarbeiten will. Eingereichte Arbeiten können sich sowohl mit praktischen als auch theoretischen Aufgabenstellungen und Lösungen im Bereich der SuchmaschinenTechnologie beschäftigen. Sie können aber genauso gesellschaftliche, wirtschaftliche, künstlerische, gesundheitliche oder andere Auswirkungen von Suchmaschinen-Anwendungen darstellen. Eine Jury wird aus den eingereichten Arbeiten die drei Besten auswählen. Diese werden: - zum SuMa-Kongress 2008 vorgestellt, - jeweils mit einem Preisgeld zwischen 2.000 und 3.000 Euro prämiert, - vom SuMa-eV im WWW präsentiert und technisch unterstützt. Die eingereichten Arbeiten müssen neu sein. Die Jury wählt die Preise in einem zweistufigen Verfahren aus: - Einreichen einer Kurzbeschreibung an den SuMa-eV sobald als möglich, spätestens aber bis zum 31.5.2008 (ca.1-2 Seiten DIN A4). - Aufgrund dieser Kurzbeschreibung entscheidet die Jury, ob und in welcher Form die Arbeit angenommen wird. Der endgültige Abgabetermin der Arbeit ist der 30.6.2008. - Die drei besten Arbeiten werden im Rahmen des nächsten SuMa-eV Kongresses im September 2008 präsentiert."
  12. Christensen, A.: Wissenschaftliche Literatur entdecken : was bibliothekarische Discovery-Systeme von der Konkurrenz lernen und was sie ihr zeigen können (2022) 0.01
    0.007980438 = product of:
      0.07182394 = sum of:
        0.07182394 = weight(_text_:open in 833) [ClassicSimilarity], result of:
          0.07182394 = score(doc=833,freq=4.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.49253768 = fieldWeight in 833, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0546875 = fieldNorm(doc=833)
      0.11111111 = coord(1/9)
    
    Abstract
    In den letzten Jahren ist das Angebot an Academic Search Engines für die Recherche nach Fachliteratur zu allen Wissenschaftsgebieten stark angewachsen und ergänzt die beliebten kommerziellen Angebote wie Web of Science oder Scopus. Der Artikel zeigt die wesentlichen Unterschiede zwischen bibliothekarischen Discovery-Systemen und Academic Search Engines wie Base, Dimensions oder Open Alex auf und diskutiert Möglichkeiten, wie beide von einander profitieren können. Diese Entwicklungsperspektiven betreffen Aspekte wie die Kontextualisierung von Wissen, die Datenmodellierung, die automatischen Datenanreicherung sowie den Zuschnitt von Suchräumen.
    Object
    Open Alex
  13. Dresler, S.; Grosse, A.G.; Rösner, A.: Realisierung und Optimierung der Informationsbeschaffung von Internet-Suchmaschinen am Beispiel von www.crawler.de (1997) 0.01
    0.0075811646 = product of:
      0.06823048 = sum of:
        0.06823048 = weight(_text_:konstanz in 716) [ClassicSimilarity], result of:
          0.06823048 = score(doc=716,freq=2.0), product of:
            0.18256405 = queryWeight, product of:
              5.637764 = idf(docFreq=427, maxDocs=44218)
              0.03238235 = queryNorm
            0.37373447 = fieldWeight in 716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.637764 = idf(docFreq=427, maxDocs=44218)
              0.046875 = fieldNorm(doc=716)
      0.11111111 = coord(1/9)
    
    Imprint
    Konstanz : Universitätsverlag
  14. Griesbaum, J.: Evaluierung hybrider Suchsysteme im WWW (2000) 0.01
    0.0075811646 = product of:
      0.06823048 = sum of:
        0.06823048 = weight(_text_:konstanz in 2482) [ClassicSimilarity], result of:
          0.06823048 = score(doc=2482,freq=2.0), product of:
            0.18256405 = queryWeight, product of:
              5.637764 = idf(docFreq=427, maxDocs=44218)
              0.03238235 = queryNorm
            0.37373447 = fieldWeight in 2482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.637764 = idf(docFreq=427, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
      0.11111111 = coord(1/9)
    
    Imprint
    Konstanz : Universität / Informationswissenschaft
  15. Hamdorf, K.: Wer katalogosiert das Web? : Dokumentarische Arbeit als Big Business und Freiwilligen-Projekt (2001) 0.01
    0.0068403753 = product of:
      0.061563376 = sum of:
        0.061563376 = weight(_text_:open in 6387) [ClassicSimilarity], result of:
          0.061563376 = score(doc=6387,freq=4.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.42217514 = fieldWeight in 6387, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.046875 = fieldNorm(doc=6387)
      0.11111111 = coord(1/9)
    
    Abstract
    Webkataloge sind gemeinsam mit Suchmaschinen die entscheidenden Navigationshilfen im Internet-, ursprünglich als Hobby begonnene Webverzeichnisse haben sich zu großen Internetportalen wie Yahoo! oder Web.de entwickelt. Die Kataloge sind innerhalb weniger Jahre bis auf über zwei Millionen Einträge gewachsen; das Vorgehen bei der Erstellung ihrer Systematik und die Qualität der Erfassung der Websites sind von diesem rapiden Wachstum geprägt. Die Tatsache, dass die Webkataloge überwiegend von "Nicht-Dokumentaren" erstellt werden, ist ein weiterer entscheidender Punkt zum Verständnis der Katalogentwicklung in den USA und Deutschland. Dokumentarisches bzw. bibliothekarisches Know-how spielt nur eine Nebenrolle bei ihrer Entwicklung. Am deutlichsten wird dies beim nichtkommerziellen "Open Directory Project", das in den letzten drei Jahren den weltgrößten Webkatalog erarbeitet hat. Auf Grund der Konkurrenzsituation auf dem Portalmarkt und des hohen Personalaufwands für die Katalogerstellung hat in den USA eine Marktbereinigung auf nur noch drei große Webkatalog-Anbieter stattgefunden; diese Faktoren werden auch die Entwicklung der Kataloge im deutschsprachigen Raum beeinflussen. Ein guter Zeitpunkt, um eine Zwischenbilanz zu ziehen und über die Trends in diesem Bereich zu berichten
    Object
    Open Directory Project
  16. Hamdorf, K.: Jenseits von Google : Erschließung und Recherche von Internet-Angeboten durch Webkataloge (2004) 0.01
    0.0068403753 = product of:
      0.061563376 = sum of:
        0.061563376 = weight(_text_:open in 2365) [ClassicSimilarity], result of:
          0.061563376 = score(doc=2365,freq=4.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.42217514 = fieldWeight in 2365, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.046875 = fieldNorm(doc=2365)
      0.11111111 = coord(1/9)
    
    Abstract
    Auch wenn Suchmaschinen wie Google ihre Ergebnis-Qualität in den letzten Jahren stark gesteigert haben, sind Webkataloge weiterhin eine wertvolle RechercheAlternativefür relevante Internet-Ressourcen. Während die meisten Webkataloge aufgrund des Fachwissens ihrerBearbeiter nur Websites zu einem Thema erschließen, existiert mit dem "Open Directory Project (ODP)" ein weltweiter Webkatalog, in dem bereits über 4,5 Millionen Websites erfasst sind. In der öffentlichen Wahrnehmung spielen Webkataloge kaum eine Rolle, was u.a. an der extremen Heterogenität (sowohl der Katalog-Bearbeiter als auch der Katalog-Qualität) liegt wie auch an der Notwendigkeit, zuerst den geeigneten Katalog selbst recherchieren zu müssen. Mit dem Wissen, wo und wie gute Kataloge zu finden sind, und unter welchen Maßgaben sie entstehen, können viele InternetRecherchen effektiver durchgeführt werden. Neben der Vorstellung exemplarischer Webkataloge werden praxisorientierte Strategien für die Website-Auswahl und -Beschreibung vorgestellt.
    Object
    Open Directory Project
  17. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.01
    0.0068403753 = product of:
      0.061563376 = sum of:
        0.061563376 = weight(_text_:open in 2133) [ClassicSimilarity], result of:
          0.061563376 = score(doc=2133,freq=16.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.42217514 = fieldWeight in 2133, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
      0.11111111 = coord(1/9)
    
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
    Source
    http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
  18. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.01
    0.006780485 = product of:
      0.030512184 = sum of:
        0.025393596 = weight(_text_:open in 5114) [ClassicSimilarity], result of:
          0.025393596 = score(doc=5114,freq=2.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.17413835 = fieldWeight in 5114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.0051185885 = product of:
          0.015355765 = sum of:
            0.015355765 = weight(_text_:22 in 5114) [ClassicSimilarity], result of:
              0.015355765 = score(doc=5114,freq=2.0), product of:
                0.11339747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03238235 = queryNorm
                0.1354154 = fieldWeight in 5114, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5114)
          0.33333334 = coord(1/3)
      0.22222222 = coord(2/9)
    
    Content
    Amerikanischer Kulturimperialismus also: Es ist kaum verwunderlich, dass sich vor allem in Frankreich Widerstand regt, gibt es hier doch eine Tradition in Sachen Kapitalismus- und Globalisierungskritik. Einer der Protagonisten, Jean-Noel Jeannaney, spricht in seinem Buch "Googles Herausforderung" von einer "Diktatur des angloamerikanischen Kanons". Der Präsident der französischen Nationalbibliothek warnt vor einer Entdemokratisierung des "Weltwissens". Die Alternative liege in der Gründung einer "Europäischen Digitalen Bibliothek". Vor gut einem Jahr verabredete Frankreich mit Deutschland die Entwicklung einer europäischen Suchmaschine. Doch der Google-Killer "Quaero" steht immer noch am Anfang. Überdies wird die Beteiligung privater Unternehmen (Bertelsmann, Siemens, Thomson-Brandt ...) der befürchteten Kommerzialisierung des "Weltwissens" nur bedingt Einhalt gebieten. Was man als Preis für den Rückzug des Staates aus seiner öffentlichen Verantwortung beklagen mag. Um staatlichen Schutz wird es künftig außer bei urheberrechtlichen Fragen vor allem beim Datenschutz gehen. Das Google-Portal verfügt über einen wahren Wissensschatz, was die Bedürfnisse seiner "Besucher" angeht: Jeder Klick auf einer der Google-Sites hinterlässt eine Datenspur, die nicht nur gespeichert wird, sondern auch Dritten angeboten werden könnte. Künftig wird Google über noch mehr Daten verfügen, nachdem das Unternehmen jetzt ein eigenes Bezahlsystem entwickelt hat, das den Einkauf im Netz noch einfacher machen soll. Dass im Februar der chinesische Ableger der Suchmaschine auf Geheiß der Pekinger Regierung unliebsame Webadressen sperrte, war jedenfalls keine vertrauensbildende Maßnahme - Freiheit und Kapitalismus gehören nicht notwendig zusammen. Wobei immer auch die Konzern-Maxime gilt: Besser wir sind da, als wenn es uns nicht gäbe. Zwar kann man, wie unlängst auf einer Tagung der Friedrich-Ebert-Stiftung, die demokratiegefährdenden "digitalen Informationsmächte" beschwören: "Was wird aus dem investigativen Journalismus, wenn Recherchen bei Google beginnen und bei Yahoo aufhören?" Doch langsam: Google ist immer noch die leistungsfähigste Suchmaschine, der Gebrauch von Google ist nach wie vor kostenlos, es gibt alternative, auch nicht-kommerzielle und so genannte Metasuchmaschinen, die verschiedene Suchdienste verwenden... Und sehr wahrscheinlich wird Google wie schon Microsoft dereinst eine ernst zu nehmende Konkurrenz erwachsen. Auf die open-source-community ist, wie das Nutzer-gestützte Online-Lexikon Wikipedia zeigt, wenn schon nicht steter Verlass, so doch in jedem Fall Hoffnung zu setzen."
    Date
    12. 2.1996 22:34:46
  19. Neumeier, F.: Verständnisprobleme : Internet Suchmaschinen (1998) 0.01
    0.006449167 = product of:
      0.058042504 = sum of:
        0.058042504 = weight(_text_:open in 40) [ClassicSimilarity], result of:
          0.058042504 = score(doc=40,freq=2.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.39803052 = fieldWeight in 40, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0625 = fieldNorm(doc=40)
      0.11111111 = coord(1/9)
    
    Content
    Vorgestellt und bewertet werden: AltaVista (Note: 4); Excite (2); Hotbot (3); InfoSeek (3); Lycos (4); Northern Light (5); Open Text (5); WebCrawler (4); Yahoo (3)
  20. Lewandowski, D.: Perspektiven eines Open Web Index (2016) 0.01
    0.0056430213 = product of:
      0.05078719 = sum of:
        0.05078719 = weight(_text_:open in 2935) [ClassicSimilarity], result of:
          0.05078719 = score(doc=2935,freq=2.0), product of:
            0.14582425 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.03238235 = queryNorm
            0.3482767 = fieldWeight in 2935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2935)
      0.11111111 = coord(1/9)
    

Years

Types

  • a 92
  • el 10
  • m 5
  • x 3
  • p 2
  • r 1
  • More… Less…

Classifications