Search (1316 results, page 1 of 66)

  • × year_i:[2000 TO 2010}
  1. Sauer, D.: Alles schneller finden (2001) 0.14
    0.14483398 = product of:
      0.36208495 = sum of:
        0.29533845 = weight(_text_:com in 6835) [ClassicSimilarity], result of:
          0.29533845 = score(doc=6835,freq=2.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.81385267 = fieldWeight in 6835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.078125 = fieldNorm(doc=6835)
        0.066746496 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
          0.066746496 = score(doc=6835,freq=2.0), product of:
            0.17251563 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049264427 = queryNorm
            0.38690117 = fieldWeight in 6835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=6835)
      0.4 = coord(2/5)
    
    Date
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
  2. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.11
    0.10991311 = product of:
      0.27478278 = sum of:
        0.2347349 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
          0.2347349 = score(doc=562,freq=2.0), product of:
            0.41766435 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.049264427 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0400479 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
          0.0400479 = score(doc=562,freq=2.0), product of:
            0.17251563 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049264427 = queryNorm
            0.23214069 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
      0.4 = coord(2/5)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  3. ap: Konkurrenz für Google : Neue Suchmaschine "Teoma" gestartet (2002) 0.09
    0.0869004 = product of:
      0.21725099 = sum of:
        0.17720309 = weight(_text_:com in 187) [ClassicSimilarity], result of:
          0.17720309 = score(doc=187,freq=2.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.48831162 = fieldWeight in 187, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.046875 = fieldNorm(doc=187)
        0.0400479 = weight(_text_:22 in 187) [ClassicSimilarity], result of:
          0.0400479 = score(doc=187,freq=2.0), product of:
            0.17251563 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049264427 = queryNorm
            0.23214069 = fieldWeight in 187, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=187)
      0.4 = coord(2/5)
    
    Content
    "Die Suchmaschine Google gilt oft als der beste Weg, um schnell etwas im Internet zu finden. Das war einmal, behauptet Apostolos Gerasoulis, jetzt gebe es www.teoma. com. "Wir sind die nächste Generation der Suchmaschinen", verspricht der Mathematikprofessor. Die Web-Sites von Google und Teoma sind ähnlich aufgemacht. Beide bieten eine weitgehend weiße Startseite mit wenigen, klaren Farben. Beide Suchmaschinen benutzen bei ihrer Arbeit zur Analyse der Anfragen einen komplizierten Algorithmus. Teoma hält den eigenen Ansatz aber für besser, weil dabei das Internet in Gruppen von Online-Gemeinschaften unterteilt wird. Dies liefere bessere Ergebnisse und erlaube eine nützlichere Auswahl. Zu einem Suchbegriff erscheinen bei Teoma zuerst links oben die bezahlten Verweise, darunter dann' alle anderen gefundenen Web-Seiten. Rechts erscheinen Vorschläge zur Verfeinerung der Suchanfrage, darunter manchmal Links von "Experten und Enthusiasten". Diese qualifizierten Antworten sind eine der Stärken, mit denen Teoma wuchern möchte. Sie sind besonders für Anfänger nützlich, die nach allgemeinen Themen wie Afrika" oder "Fußball" suchen. Allerdings könnte dieser Ergebnisdienst Nutzer auch überfordern, gerade wenn sie an das einfache Google gewöhnt seien, kritsiert Rob Lancaster von der Yankee Group."
    Date
    3. 5.1997 8:44:22
  4. Puscher, F.: Suchmaschinen im Härtetest (2001) 0.08
    0.08353434 = product of:
      0.41767168 = sum of:
        0.41767168 = weight(_text_:com in 6854) [ClassicSimilarity], result of:
          0.41767168 = score(doc=6854,freq=4.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            1.1509615 = fieldWeight in 6854, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.078125 = fieldNorm(doc=6854)
      0.2 = coord(1/5)
    
    Abstract
    Zehn Suchmaschinen buhlen um die Gunst der Surfer. Doch wie gut sind sie wirklich? com!online hat die Suchdienste getestet
    Source
    Com!online. 2001, H.12, S.30-31
  5. Lischka, K.: Scherzbolde im Whitehouse.net : Die neuen Internet-Adressen wie .info oder.biz brachten nicht die erhoffte Systematik in das Netz (2003) 0.07
    0.06939453 = product of:
      0.17348632 = sum of:
        0.15346237 = weight(_text_:com in 5) [ClassicSimilarity], result of:
          0.15346237 = score(doc=5,freq=6.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.42289025 = fieldWeight in 5, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5)
        0.02002395 = weight(_text_:22 in 5) [ClassicSimilarity], result of:
          0.02002395 = score(doc=5,freq=2.0), product of:
            0.17251563 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049264427 = queryNorm
            0.116070345 = fieldWeight in 5, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5)
      0.4 = coord(2/5)
    
    Content
    "Fachleute sagten im Juli 1999 voraus, heute werde es mehr als 100 Millionen Domainnamen geben. Die Schätzung ging daneben: Derzeit gibt es nur halb so viele Internet-Adressen. Die befürchteten Probleme dagegen sind schon da: Eingängige Bezeichnungen in populären Namensräumen wie.com oder. net sind knapp und bisweilen teuer: So wurde wallstreet com für gut eine Million Euro verkauft. Neue Adressen, die die Netzverwaltung Icann seit zwei Jahren schrittweise einführt, sollten Abhilfe schaffen. Doch nach den bisherigen Erfahrungen sieht es nicht so aus, als seien.info oder.bix eine Lösung. Sieben neue Namensräume hat Icann genehmigt. Der letzte -.pro für Ärzte, Anwälte und Steuerberater - startet in den nächsten Wochen. Die erfolgreichste neue Top-Level-Domains (TLD) ist info mit mehr als einer Million registrierter Adressen. Doch nur 18 Prozent werden tatsächlich für Inhalte genutzt, sagt Tim Schumacher, Geschäftsführer der Plattform für Domainhandel Sedo: "Ein Großteil ist ungenutzt in den Händen von Spekulanten." 8000 Euro kostet etwa fonds.info. Über Zahlen kann man streiten. Der Verwalter der.info-Domeins Afilias spricht von weit mehr aktiven Seiten. Dennoch ist klar: Der allgemein zugängliche .info-Na-mensraum ist wohl deshalb so erfolgreich, weil Markeninhaber und Spekulanten sich auf die Adressen stürzten. Die einen vorbeugend, die anderen in der Hoffnung auf das große Geschäft. Exemplarisch ist der Streit zwischen Bundespresseamt und einer Duisburger Internet Agentur um bundesregierung.info. Grund für die Probleme: Es mangelt an Systematik im Namensraum. In den Vereinigten Staaten wissen die meisten Nutzer, dass unter whitehouse.net nicht Regierungsmitglieder gebrauchte Spionageflugzeuge verscherbeln, sondern Scherzbolde. Der echte Staatschef findet man unter der Endung.gov für Government (Regierung). International fehlt Vergleichbares; daher die Nöte des Bundespresseamts. Mehr als die Hälfte der weltweit registrierten Adressen liegt in globalen, allgemein offenen Namensräumen wie .com, .org oder.net. Der große Rest fällt in die Länder-Domeins wie de. Die neuen, nur für kleine Zielgruppen registrierbaren Nischenangebote sind bislang kein Erfolg. Was allerdings auch an der Auswahl liegen kann. So ist.coop Arbeitsgemeinschaften vorbehalten. Die Registrierzentrale freut sich über 7000 Anmeldungen-unter anderem von einer landwirtschaftlichen Kooperative aus der Mongolei. Eine Top Level Domain wie mobile für Mobilfunkunternehmen wäre erfolgreicher gewesen. Auch für den Namensbereich name malte sich die "Global Name Registry" mehr Interesse aus. Von etwa einer Million Kunden in 18 Monaten war die Rede. Derzeit sind es etwa 150000. Die Firma bleibt jedoch optimistisch: "Es gibt weltweit vielleicht 25 Millionen Unternehmen mit Interesse an Domainnamen, aber potenziell 600 Millionen Individuen", sagt Mitgründer Hakon Haugnes. Ein Beispiel für sinnvolle Lösungen ist der .aero-Namensraum. Dort gelten Benennungsstandards. Viele weltweit etablierte Codes für Fluggesellschaften führen zum Ziel; Ba.aero kann zum Beispiel nur British Airways registrieren. Derzeit diskutiert die Vergabezentrale eine Ausweitung der Regelung auf die standardisierten Flughafen-Codes und Flugnummern. Das Problem: Solche Vorgaben existieren nur selten a priori. Meist müssten sie mit dem Namensbereich geschaffen werden. Hier kritisiert der US-Rechtsprofessor Milton Mueller scharf die Organisation zur Verwaltung des Namensystems Icann: "Sie haben weder für die Einteilung, noch für die Aufteilung der Ressource Namensraum verbindliche Methoden definiert. Sie arbeiten als ein zentrales Planungsbüro im Sowjetstil und entscheiden nach absolut beliebigen Herangehensweisen auf Ad-hoc-Basis, welche Top Level Domains es gibt, wie sie verteilt werden, wer sie verwaltet." Icann wehrt sich mit der Begründung, sie dürfe als Selbstregulierungs-Organisation keine Politik betreiben.
    Wenn man den lange geforderten Namensraum .xxx für Erwachsenenunterhaltung oder.kids für kindgerechte Angebote einrichte, müsse jemand definieren, was global als kindgerecht gilt. Allerdings hat Icann längst politische Entscheidungen getroffen. Etwa im März 2000, als man der palästinensischen Autonomiebehörde die Länder-Domain .ps zusprach. Auch anderswo betreibe Icann schon Politik, wirft Milton Mueller ein: "Die Entscheidungen spiegeln die Interessen von Markeninhabern wieder, die glauben, von einer künstlichen Knappheit im Namensraum zu profitieren." Der Hintergrund: Je weniger Domainarten es gibt, desto weniger Adressen müssen zum Schutz vor Spekulanten gekauft werden. Eine systematische Erweiterung des Namensraums könnte attraktiv für internationale Organisationen oder Firmen sein. Warum soll nicht BMW eine Top Level Domain erhalten, unter der nationale Unterorganisationen auftreten? Die Verknüpfung von Erweiterung und Systematisierung würde der Netzverwaltung mehr Gestaltungsmacht geben. Das aber will kaum ein Kritiker des heutigen Systems. Manche fordern gar beliebige Top Level Domains. Unternehmen wie das deutsche Beat-Nie oder das amerikanische New.net arbeiten daran: Sie errichten parallel zur offiziellen Infrastruktur alternative Namenssysteme. Doch die Nutzer müssen ihre Rechner umkonfigurieren, um die Angebote zu finden. Letztlich könnte das dazu führen, dass abhängig von der installierten Software unterschiedliche Seiten unter demselben Namen erscheinen. Fachleute bezeichnen die Endungen von Internetadressen als Top Level Domains. Die meisten werden für Länder vergeben (etwa .de für Deutschland), manche auch nach Themen und Zielgruppen: Diese generischen Top Level Domains sind: .aero Luftfahrtindustrie - .biz Kommerz - .com früher Kommerz, jetzt offen - .coop Genossenschaften - .edu US-Bildungseinrichtungen - .gov US-Regierung - .info Informationsdienste - .museum Museen - .mil US-Militär - .name Privatpersonen - .net früher Netzbetreiber, jetzt offen- .org früher Organisationen, offen - .pro "Professionals" - bestimmte Berufsgruppen."
    Date
    22. 2.2003 9:55:44
  6. Rehn, A.: Daten-Schnüffler : Software-Entwickler verbessern Suchmaschinen, um Ordnung ins Chaos zu bringen (2004) 0.07
    0.067818545 = product of:
      0.16954637 = sum of:
        0.14618509 = weight(_text_:com in 3671) [ClassicSimilarity], result of:
          0.14618509 = score(doc=3671,freq=4.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.40283653 = fieldWeight in 3671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3671)
        0.023361273 = weight(_text_:22 in 3671) [ClassicSimilarity], result of:
          0.023361273 = score(doc=3671,freq=2.0), product of:
            0.17251563 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049264427 = queryNorm
            0.1354154 = fieldWeight in 3671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3671)
      0.4 = coord(2/5)
    
    Content
    "Ein Surfer-Leben ohne Suchmaschinen ist nicht vorstellbar. Doch so großartig die virtuellen Spürhunde auch sind sie haben eine Schwäche: Oft liefern sie einfach zu viele Informationen. Und die meisten Seiten' die als Ergebnis ausgeworfen werden, sind oft gar nicht von Interesse für den Surfer. Findige Software-Entwickler wollen nun Ordnung ins Chaos bringen und Google und Co. den Rang in der Gunst der Internet-Nutzer ablaufen. Das Prinzip ist einfach: Die Suchergebnisse werden bereits vor dem Anzeigen analysiert und automatisch in Kategorien sortiert. Anders als bei den herkömmlichen Listen, denen meist die innere Ordnung fehlt nimmt die Software dem Suchenden also das Strukturieren der Fundstellen ab. Dieses Prinzip steckt beispielsweise hinter der Meta-Suchmaschine www vivisimo. com. "Wir beleben den sonst nervtötenden Prozess der Informationssuche" sagt Vivisimo-Mitgründer Raul Valdes-Perez. Das Unternehmen aus Pittsburgh verkauft seine Technologie nicht nur an Geschäftskunden; sondern stellt die ClusterMaschine im Internet kostenlos zur Verfügungauch in einer deutschen Version. Wenn man sich das Web als einen riesigen Buchladen vorstellt, in dem alle Bücher willkür - lich auf dem Boden aufgestapelt sind, dann ist Vivisimo nach Darstellung von Valdes-Perez ein rasanter Buchhändler der die verschiedenen Titel in Sekundenschnelle nach sinnvollen Kriterien in Regale einordnet. Doch anders als in Buchläden oder Bibliotheken gibt es bei Vivisimo keine festen Kategorien. Die Software legt sie ad hoc fest indem sie die Sucherergebnisse nach linguistischen und statistischen Gesichtspunkten analysiert.
    - Karte mit bunten Kreisen - Während Vivisimo noch eine klassische MetaSuchmaschine ist, ist Grokker (www.groxis. com) ein Programm des kalifornischen Softwareunternehmens Groxis, schon optisch eine Innovation. Es sortiert die Suchergebnisse nicht nur, sondern visualisiert-die Kategorien als Karte mit bunten Kreisen. Innerhalb eines solchen Kreises gibt es Unterkategorien, also kleinere Kreise, die angeklickt werden können. Allerdings dauert es ein wenig, bis man sich damit zurechtfindet. Ein einfaches Beispiel verdeutlicht den Unterschied zu herkömmlichen Suchmaschinen. Bei den Schlagworten "Paris Hilton" erhält man etwa bei Google einerseits Treffer aus der Kategorie Reisen und Unterkünfte andererseits aber auch jede Menge Seiten, auf denen die Hotelerbin Paris Hilton erwähnt ist. Denn Google sortiert die Fundstellen danach wie viele Links zur jeweiligen Seite führen. Dem Nutzer bleibt die Arbeit, die lange Liste zu durchforsten: Nicht so bei Grokker oder Vivisimo: Hier werden die Ergebnisse nach Themengebieten gruppiert. Grokker selbst ist aber keine Suchmaschine, sondern kombiniert die Resultate von Yahoo, MSN, AltaVista, Wisenut, Teoma und FAST. Das Programm kann auch Dateien auf der Festplatte kategorisieren. Wir sind jetzt in der Lage, alles zu 'grokken'" sagt Groxis-Chef R. J. Pittman. Auch mit Google stehe man in Verhandlungen. Anders als bei Vivisimo gibt es von Grokker keine deutsche Version. Und außerdem ist das Programm nicht gratis: Die Vollversion kostet 49,95 Dollar, eine kostenlose Testversion für 30 Tage kann nach Anmeldung heruntergeladen werden. Eine andere Form der Visualisierung von Suchergebnissen hat www.touchgraph.com entwickelt. Die Firma bietet mit dem TouchGraph Google Browser ein Applet an, das die Fundstellen als Netzstruktur, als Beziehungsgeflecht veranschaulicht. Basis dafür ist die GoogleFunktion "Ähnliche Seiten". Die dokumentierten Verknüpfungen zwischen den verschiedenen Internetseiten werden grafisch dargestellt."
    Date
    3. 5.1997 8:44:22
  7. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.06
    0.06259598 = product of:
      0.31297988 = sum of:
        0.31297988 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
          0.31297988 = score(doc=140,freq=2.0), product of:
            0.41766435 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.049264427 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.2 = coord(1/5)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  8. "Internet-Suchmaschine der nächsten Generation" : Seruba (2001) 0.06
    0.058474034 = product of:
      0.29237017 = sum of:
        0.29237017 = weight(_text_:com in 5917) [ClassicSimilarity], result of:
          0.29237017 = score(doc=5917,freq=4.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.80567306 = fieldWeight in 5917, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5917)
      0.2 = coord(1/5)
    
    Abstract
    Das Hamburger Unternehmen Seruba unter Leitung von Prof. Dr. Winfried Schmitz-Esser hat unter der Adresse www.lex4.com eine "Internet-Suchmaschine der nächsten Generation" gestartet, über die ein Thema in Deutsch, Englisch, Französisch und Spanisch erschlossen werden kann. Lex4 basiert auf den "Lexicosaurus", einer Kombination aus Lexikon und Thesaurus, die dreierlei verzeichnet: was unter einem bestimmten Begriff zu verstehen ist, in welchem Zusammenhang dieser Begriff zu anderen Begriffen steht und welche Ausdrücke für diesen Begriff in den vier genannten Sprachen geläufig sind. Insgesamt sind in dem semantischen Netzwerk über 500.000 Einzelbegriffe zu Bedeutungs- und Themenzusammenhängen verknüpft. Die 1998 gegründete Seruba ist risikokapitalfinanziert und beschäftigt 26 Mitarbeiter. Schmitz-Esser lehrt Mediendokumentation an der FH Hamburg
    Footnote
    Vgl. auch: http://www.lex4.com
  9. Wolf, S.: Konkurrenz bei der wissenschaftlichen Recherche (2005) 0.06
    0.058474034 = product of:
      0.29237017 = sum of:
        0.29237017 = weight(_text_:com in 3256) [ClassicSimilarity], result of:
          0.29237017 = score(doc=3256,freq=4.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.80567306 = fieldWeight in 3256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3256)
      0.2 = coord(1/5)
    
    Abstract
    Die Suchmaschinen-Betreiber weiten ihr Angebot kräftig aus Die vergangenen Monate brachten einige Veränderungen auf dem Suchdienste-Sektor. Im »klassischen« Internet-Suchmaschinen-Bereich will sich Yahoo als Nummer 2 etablieren, Microsoft rüstet mit einigen neuen Funktionen auf und Google gibt eine Verdoppelung der Index-Größe bekannt. Die Suchmaschinen-Betreiber, allen voran Google, wagen sich allerdings auch immer mehr in den Bereich der wissenschaftlichen Recherche vor. So durchsucht »Google Scholar« gezielt wissenschaftliche Quellen. Unter dem Namen »Google Print« startet Google eines der größten Digitalisierungsprojekte. Amazon verknüpft mit der Suchmaschine »A9.com« Internet- und Buch-Recherche.
    Object
    A9.com
  10. Sixtus, M.: ¬Das Gemeinschaftsnetz : Im Wiki-Web können alle Surfer Seiten umschreiben und hinzufügen - so entstehen ganze Enzyklopädien (2003) 0.06
    0.058130182 = product of:
      0.14532545 = sum of:
        0.12530151 = weight(_text_:com in 1739) [ClassicSimilarity], result of:
          0.12530151 = score(doc=1739,freq=4.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.34528846 = fieldWeight in 1739, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
        0.02002395 = weight(_text_:22 in 1739) [ClassicSimilarity], result of:
          0.02002395 = score(doc=1739,freq=2.0), product of:
            0.17251563 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049264427 = queryNorm
            0.116070345 = fieldWeight in 1739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
      0.4 = coord(2/5)
    
    Content
    "Wissen ist in. Allerorten wird es zum Rohstoffdes 21. Jahrhunderts ausgerufen. Doch je mehr man weiß, desto wichtiger ist es, die Informationen professionell zu verwalten, zu organisieren und zu pflegen. Manche Unternehmen bauen dazu teure, komplexe Knowledge-Management-Systeme ins Firmennetz ein. Doch das Wissensmanagement geht einfacher - mit Wikis. Ein Wiki ist eine Sammlung dynamischer Webseiten, die über Verweise verbunden sind und alle über eine Besonderheit verfügen: Ganz unten fordert ein Button alle Surfer dazu auf, die aktuelle Seite zu verändern. Prinzipiell kann jeder jede Seite ändern, ergänzen, verbessern oder sogar löschen. Rechte-Hierarchien existieren schlicht nicht. Jeder User ist gleichzeitig Leser, Lektor, Redakteur und Autor. Seiten anlegen und verlinken geschieht in einem Arbeitsgang. Einige rudimentäre Möglichkeiten zur Textformatierung und zur Einbindung von Grafiken sowie eine Volltextsuche runden den bescheidenen Funktionsumfang eines Standard-Wikis ab - und machen es verblüffenderweise doch zu einem mächtigen Werkzeug. Geübte User erzeugen mit dem virtuellen Zettelkasten in Windeseile Strukturen, die Hunderte oder Tausende von Einzelseiten umfassen. Die Einsatzmöglichkeiten sind vielfältig: Wikis fungieren als Wissensspeicher, als Basis für gemeinsame Projektdokumentationen, als Materialanforderungsformular oder als Brainstorminghilfe in Kreativberufen. Und selbst bei der Planung von Betriebsfeiern oder als Datenbank für Kochrezepte sollen sie schon zum Einsatz kommen. Wenn jeder Nutzer jedes einzelne Dokument ändern oder löschen kann, herrscht dann nicht das Chaos? Was passiert, wenn Fehler sich einschleichen oder wichtige Passagen verschwinden? Dagegen sind die Wikis gewappnet: Mit der HistoryFunktion und über Differenzberechnungen lässt sich überblicken, wer wann was geändert hat. Bei Bedarf lassen sich alle Anderungen rückgängig machen. Jeder historische Zustand ist so mit wenigen Mausklicks wiederhergestellt. Seit 1999 setzen Teams des Mobilfunkherstellers Motorola auf Wikis als Werkzeuge für das kollaborative Arbeiten, die Lufthansa verwendet sie zur Verwaltung technischer Dokumentationen, und die Konzerne SAP und Disney experimentieren mit den wenigen hundert Kilobyte kleinen Systemen in ihren Firmennetzen. Das erste Wiki hat der Software-Entwickler Ward Cunningham im Jahr 1995 unter der Adresse c2.com/cgi/wiki ins Netz gestellt - und dort steht es heute noch. Der Begriff "Wiki" ist das hawaiianische Wort für "schnell", und genau darum ging es Cunningham: flottes, unkompliziertes Arbeiten, ohne von einem unübersichtlichen Funktionsumfang gebremst zu werden. Mittlerweile existieren etliche Klons und Weiterentwicklungen des UrWikis, in mehreren Programmiersprachen und für fast alle Computerplattformen. Die meisten stehen gratis und unter der Open-Source-Lizenz im Netz.
    Date
    17. 7.1996 9:33:22
    Footnote
    Vgl. auch: c2.com/cgi/wiki; de.wikipedia.org; www.disinfopedia.org
  11. Hauer, M.: dandelon.com: 81.000 Anfragen pro Monat : 5. Benutzertreffen intelligentCAPTURE und dandelon.com in Neustadt/Weinstraße, Mai 2008 (2008) 0.06
    0.0579336 = product of:
      0.144834 = sum of:
        0.11813539 = weight(_text_:com in 1941) [ClassicSimilarity], result of:
          0.11813539 = score(doc=1941,freq=2.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.32554108 = fieldWeight in 1941, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.03125 = fieldNorm(doc=1941)
        0.026698599 = weight(_text_:22 in 1941) [ClassicSimilarity], result of:
          0.026698599 = score(doc=1941,freq=2.0), product of:
            0.17251563 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049264427 = queryNorm
            0.15476047 = fieldWeight in 1941, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.03125 = fieldNorm(doc=1941)
      0.4 = coord(2/5)
    
    Abstract
    Die letzten zwolf Monate war fur AGI-IMC mit Digitalisierungsprojekten in Kiel, Hamburg, Braunschweig, Hannover, Gottingen, Mainz und Berlin gut gefullt, 172.000 Titel liefen durch die drei Stationen von .intelligentCAPTURE mobile_. Der TagesrekordTagesrekord von 624 Titeln pro Tag und Person (Joel Gecelter) wurde in Kiel aufgestellt (ca. zwölf Stunden), mehrmals danach aber auch über 500 Titel pro Tag erreicht - und dies alles inklusive Übernahme der bibliografischen Angaben, Dublettenkontrolle, NER-Tagging, Scanning, OCR, maschinelle Indexierung, Qualitätskontrolle, Export ins Bibliothekssystem und in dandelon. com. Ansonsten stand die Konsolidierung von Software-Entwicklung und Server-Infrastruktur im Vordergrund. Die systematische Software-Entwicklung von Dipl.-Inf. Wolfgang Herder überzeugte. Das Suchprogramm von dandelon.com wurde komplett umgeschrieben, um der hohen Last besser Stand zu halten.
    Date
    22. 6.2008 17:09:23
  12. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.05
    0.05477148 = product of:
      0.27385738 = sum of:
        0.27385738 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
          0.27385738 = score(doc=306,freq=2.0), product of:
            0.41766435 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.049264427 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.2 = coord(1/5)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  13. Becker, A: Neue Suchmaschinen für Fortgeschrittene : Neue Such-Angebote: Die fünf Top-Newcomer im Überblick (2000) 0.05
    0.051154125 = product of:
      0.25577062 = sum of:
        0.25577062 = weight(_text_:com in 1526) [ClassicSimilarity], result of:
          0.25577062 = score(doc=1526,freq=6.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.7048171 = fieldWeight in 1526, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1526)
      0.2 = coord(1/5)
    
    Content
    Kart00.com - Anstatt seine Resultate traditionell als Liste darzustellen, zeichnet der Meta-Sucher eine Ergebniskarte. Vorteil: Die bildliche Darstellung sorgtfür einen überzeugenden Themenüberblick. Teoma.com - Die Maschine fahndet mit drei unterschiedlichen Methoden: via Volltextsuche, über Expertenseiten und mithilfe von Schlagwörtern. Vorteil: Durch die innovative 3D-Suche erzielt Teoma bei speziellen Recherchen beachtliche Ergebnisse. Wondir.com - Zu jeder Anfrage gibt es bei Wondir Antworten auf fünf Ebenen. Von einer Trefferliste bis hin zu einem Experten-MailKontakt. Vorteil: ideal für komplizierte und wissenschaftliche Themen. Turb10.com - Der neue britische Meta-Crawler durchforstet gleichzeitig sowohl das normale als auch das Deep Web. Vorteil: Dank Turb10.com muss niemand mehr für Deep-Web-Recherchen auf spezielle Zusatzprogramme zurückgreifen. Hotbot.com - Der Ex-Volitextdienst setzt jetzt auf Service. Über seine Startseite lassen sich vier Top-Dienste (u.a. Google, FAST) abfragen. Vorteil: Hotbot bietet vier Spitzenangebote auf einen Klick.
  14. Thelwall, M.; Vaughan, L.; Björneborn, L.: Webometrics (2004) 0.05
    0.051154125 = product of:
      0.25577062 = sum of:
        0.25577062 = weight(_text_:com in 4279) [ClassicSimilarity], result of:
          0.25577062 = score(doc=4279,freq=6.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.7048171 = fieldWeight in 4279, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4279)
      0.2 = coord(1/5)
    
    Abstract
    Webometrics, the quantitative study of Web-related phenomena, emerged from the realization that methods originally designed for bibliometric analysis of scientific journal article citation patterns could be applied to the Web, with commercial search engines providing the raw data. Almind and Ingwersen (1997) defined the field and gave it its name. Other pioneers included Rodriguez Gairin (1997) and Aguillo (1998). Larson (1996) undertook exploratory link structure analysis, as did Rousseau (1997). Webometrics encompasses research from fields beyond information science such as communication studies, statistical physics, and computer science. In this review we concentrate on link analysis, but also cover other aspects of webometrics, including Web log fle analysis. One theme that runs through this chapter is the messiness of Web data and the need for data cleansing heuristics. The uncontrolled Web creates numerous problems in the interpretation of results, for instance, from the automatic creation or replication of links. The loose connection between top-level domain specifications (e.g., com, edu, and org) and their actual content is also a frustrating problem. For example, many .com sites contain noncommercial content, although com is ostensibly the main commercial top-level domain. Indeed, a skeptical researcher could claim that obstacles of this kind are so great that all Web analyses lack value. As will be seen, one response to this view, a view shared by critics of evaluative bibliometrics, is to demonstrate that Web data correlate significantly with some non-Web data in order to prove that the Web data are not wholly random. A practical response has been to develop increasingly sophisticated data cleansing techniques and multiple data analysis methods.
  15. Yang, C.C.; Luk, J.: Automatic generation of English/Chinese thesaurus based on a parallel corpus in laws (2003) 0.05
    0.0506919 = product of:
      0.12672974 = sum of:
        0.10336847 = weight(_text_:com in 1616) [ClassicSimilarity], result of:
          0.10336847 = score(doc=1616,freq=2.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.28484845 = fieldWeight in 1616, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1616)
        0.023361273 = weight(_text_:22 in 1616) [ClassicSimilarity], result of:
          0.023361273 = score(doc=1616,freq=2.0), product of:
            0.17251563 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049264427 = queryNorm
            0.1354154 = fieldWeight in 1616, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1616)
      0.4 = coord(2/5)
    
    Abstract
    The information available in languages other than English in the World Wide Web is increasing significantly. According to a report from Computer Economics in 1999, 54% of Internet users are English speakers ("English Will Dominate Web for Only Three More Years," Computer Economics, July 9, 1999, http://www.computereconomics. com/new4/pr/pr990610.html). However, it is predicted that there will be only 60% increase in Internet users among English speakers verses a 150% growth among nonEnglish speakers for the next five years. By 2005, 57% of Internet users will be non-English speakers. A report by CNN.com in 2000 showed that the number of Internet users in China had been increased from 8.9 million to 16.9 million from January to June in 2000 ("Report: China Internet users double to 17 million," CNN.com, July, 2000, http://cnn.org/2000/TECH/computing/07/27/ china.internet.reut/index.html). According to Nielsen/ NetRatings, there was a dramatic leap from 22.5 millions to 56.6 millions Internet users from 2001 to 2002. China had become the second largest global at-home Internet population in 2002 (US's Internet population was 166 millions) (Robyn Greenspan, "China Pulls Ahead of Japan," Internet.com, April 22, 2002, http://cyberatias.internet.com/big-picture/geographics/article/0,,5911_1013841,00. html). All of the evidences reveal the importance of crosslingual research to satisfy the needs in the near future. Digital library research has been focusing in structural and semantic interoperability in the past. Searching and retrieving objects across variations in protocols, formats and disciplines are widely explored (Schatz, B., & Chen, H. (1999). Digital libraries: technological advances and social impacts. IEEE Computer, Special Issue an Digital Libraries, February, 32(2), 45-50.; Chen, H., Yen, J., & Yang, C.C. (1999). International activities: development of Asian digital libraries. IEEE Computer, Special Issue an Digital Libraries, 32(2), 48-49.). However, research in crossing language boundaries, especially across European languages and Oriental languages, is still in the initial stage. In this proposal, we put our focus an cross-lingual semantic interoperability by developing automatic generation of a cross-lingual thesaurus based an English/Chinese parallel corpus. When the searchers encounter retrieval problems, Professional librarians usually consult the thesaurus to identify other relevant vocabularies. In the problem of searching across language boundaries, a cross-lingual thesaurus, which is generated by co-occurrence analysis and Hopfield network, can be used to generate additional semantically relevant terms that cannot be obtained from dictionary. In particular, the automatically generated cross-lingual thesaurus is able to capture the unknown words that do not exist in a dictionary, such as names of persons, organizations, and events. Due to Hong Kong's unique history background, both English and Chinese are used as official languages in all legal documents. Therefore, English/Chinese cross-lingual information retrieval is critical for applications in courts and the government. In this paper, we develop an automatic thesaurus by the Hopfield network based an a parallel corpus collected from the Web site of the Department of Justice of the Hong Kong Special Administrative Region (HKSAR) Government. Experiments are conducted to measure the precision and recall of the automatic generated English/Chinese thesaurus. The result Shows that such thesaurus is a promising tool to retrieve relevant terms, especially in the language that is not the same as the input term. The direct translation of the input term can also be retrieved in most of the cases.
  16. Pursche, O.: Lost in Web-Space : Geheimes Internet (2002) 0.05
    0.047254156 = product of:
      0.23627079 = sum of:
        0.23627079 = weight(_text_:com in 647) [ClassicSimilarity], result of:
          0.23627079 = score(doc=647,freq=2.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.65108216 = fieldWeight in 647, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0625 = fieldNorm(doc=647)
      0.2 = coord(1/5)
    
    Content
    Im Anhang (S.80-81) wird ein Überblick über File Sharing Programme gegeben: Audiognome (www.audiognome.com); Bearshare (www.bearshare.com); Direct Connect (www.neo-modus.com); E-Donkey 2000 (www.edonkey2000.com); Filenavigator (www.filenavigator.com); Imesh (www.imesh.com); Limewire (www.limewire.com); Morpheus (www.musiccity.com); Win MX (www.winmx.com); Xnap (www.sourceforge.net)
  17. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.05
    0.04694698 = product of:
      0.2347349 = sum of:
        0.2347349 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
          0.2347349 = score(doc=2918,freq=2.0), product of:
            0.41766435 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.049264427 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.2 = coord(1/5)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  18. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.04
    0.0434502 = product of:
      0.108625494 = sum of:
        0.088601544 = weight(_text_:com in 729) [ClassicSimilarity], result of:
          0.088601544 = score(doc=729,freq=2.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.24415581 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.02002395 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
          0.02002395 = score(doc=729,freq=2.0), product of:
            0.17251563 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049264427 = queryNorm
            0.116070345 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
      0.4 = coord(2/5)
    
    Abstract
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Date
    22. 6.2005 15:12:11
  19. Metzger, C.: Gratis-Bildmaterial aus dem Web (2005) 0.04
    0.0434502 = product of:
      0.108625494 = sum of:
        0.088601544 = weight(_text_:com in 3412) [ClassicSimilarity], result of:
          0.088601544 = score(doc=3412,freq=2.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.24415581 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3412)
        0.02002395 = weight(_text_:22 in 3412) [ClassicSimilarity], result of:
          0.02002395 = score(doc=3412,freq=2.0), product of:
            0.17251563 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049264427 = queryNorm
            0.116070345 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3412)
      0.4 = coord(2/5)
    
    Content
    Lizenzfreie Bilder mit einer Suchmaschine aufstöbern Im Internet gibt es fast auf jeder Website Bilder, die Sie im Browser auf Ihrer Festplatte speichern und in anderen Anwendungen weiterverarbeiten können. Entsprechend riesig ist das Gesamtangebot an Fotos, Grafiken und Clipart-Elementen. Allerdings dürfen Sie Grafikelemente, die in eine Website eingebaut sind, nur dann für eigene Zwecke einsetzen, wenn der Urheber das ausdrücklich gestattet. Diese Erlaubnis ist normalerweise mit einem Begriff wie "rechtefrei", "lizenzfrei", "zur freien Nutzung" oder -englischsprachig - "royalty-free" gekennzeichnet. Das Problem: Auf den meisten Websites finden Sie keine Urheberrechtshinweise zu den eingebetteten Bildern. Am einfachsten ist die Suche nach lizenzfreien Web-Bildern mit einer für Grafiken und Fotos optimierten Suchmaschine wie Google (www.google.de), Fotos.de (www. fotos.de) oder Picsearch (www.picsearch. com). Für die Foto-Indizierung verwenden Suchmaschinen normalerweise den Text auf der Web-Seite, auf der sich auch das betreffende Bild befindet. Dabei werden doppelte Fundstellen automatisch aussortiert und Bilder mit der höchsten Qualität an den Anfang der Ergebnisliste gestellt. In Google sind laut Betreiber derzeit 880 Millionen Grafiken registriert. Zum Bildersuchdienst gelangen Sie auf der Google-Startseite per Klick auf die Registerkarte "Bilder". Geben Sie einen oder mehrere Suchbegriffe - durch Leerzeichen getrennt - in das Suchfeld ein, und klicken Sie auf den Button "Google Suche". Die Fundstellenanzeige erfolgt in Form von Miniaturvorschaubildern. Ein Klick auf das gewünschte Motiv öffnet die Website mit dem Foto. Um eine Grafik auf Ihrer Festplatte abzuspeichern, klicken Sie mit der rechten Maustaste darauf und wählen anschlie ßend im Kontextmenü den Befehl "Bild speichern unter". Lizenzfreie Bilder oder ganze Online-Fotogalerien stöbern Sie auch ohne spezielle Bildersuchfunktion mit einer Standardrecherche in einer Suchmaschine wie Alltheweb (www.alltheweb.com) auf. Geben Sie dazu einen Begriff wie "Foto", "Bilder" oder "Picture" in Kombination mit "lizenzfrei" oder "royalty-free" in das Suchfeld der verwendeten Suchmaschine ein.
    Date
    22. 5.2005 10:06:58
  20. cw: ¬Das Straßen-Netz (2002) 0.04
    0.04134739 = product of:
      0.20673694 = sum of:
        0.20673694 = weight(_text_:com in 6728) [ClassicSimilarity], result of:
          0.20673694 = score(doc=6728,freq=2.0), product of:
            0.36288935 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.049264427 = queryNorm
            0.5696969 = fieldWeight in 6728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6728)
      0.2 = coord(1/5)
    
    Footnote
    Web-Adressen der Anbieter: easytour.dr-staedler.de; www.expedia.de; www.falk.de; www.geostar.de; www.map24.com; www.mappy.de; www.marcopolo.de; routing.carview.msn.de; www.opel.de/rec/routenplaner; www.reiseplanung.de; www.reiseoute.de; www.teleinfo.de; www.tiscover.com; www.veturo.com; www.viamichelin.com; route.web.de

Languages

Types

  • a 1108
  • m 143
  • el 62
  • s 49
  • b 26
  • x 13
  • i 8
  • n 2
  • r 1
  • More… Less…

Themes

Subjects

Classifications