Search (3726 results, page 2 of 187)

  1. Kopp, O.: Google Hummingbird-Algorithmus-Update : Infos & Hintergründe (2013) 0.07
    0.06798679 = product of:
      0.33993393 = sum of:
        0.33993393 = weight(_text_:algorithmus in 2522) [ClassicSimilarity], result of:
          0.33993393 = score(doc=2522,freq=6.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.9597027 = fieldWeight in 2522, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2522)
      0.2 = coord(1/5)
    
    Abstract
    Pünktlich zum 15. Geburtstag der Google Suche verkündete Google gestern auf einer Pressekonferenz in der "Gründungs-Garage", dass das bedeutendste Google Update seit dem Caffeine Update im Jahr 2010 und größte Algorithmus-Update seit 2001 schon seit ca. einem Monat aktiv ist. Das aktuelle Update heißt Hummingbird zu deutsch Kollibri. Es soll ca. 90% aller Suchanfragen betreffen und soll im Vergleich zu Caffeine ein echtes Algorithmus-Update sein. Es soll dabei helfen komplexere Suchanfragen besser zu deuten und noch besser die eigentliche Suchintention bzw. Fragestellung hinter einer Suchanfrage zu erkennen sowie passende Dokumente dazu anzubieten. Auch auf Dokumentenebene soll die eigentliche Intention hinter dem Content besser mit der Suchanfrage gematcht werden.
  2. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.07
    0.06798679 = product of:
      0.33993393 = sum of:
        0.33993393 = weight(_text_:algorithmus in 3977) [ClassicSimilarity], result of:
          0.33993393 = score(doc=3977,freq=6.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.9597027 = fieldWeight in 3977, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.2 = coord(1/5)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
  3. Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019) 0.07
    0.06798679 = product of:
      0.33993393 = sum of:
        0.33993393 = weight(_text_:algorithmus in 5227) [ClassicSimilarity], result of:
          0.33993393 = score(doc=5227,freq=6.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.9597027 = fieldWeight in 5227, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
      0.2 = coord(1/5)
    
    Abstract
    Der Wissenschaftsverlag Springer Nature hat nach eigenen Angaben das erste Buch veröffentlicht, das von einem Algorithmus verfasst wurde. Bei Springer Nature ist das nach Angaben des Wissenschaftsverlags erste maschinengenerierte Buch erschienen: "Lithium-Ion Batteries - A Machine-Generated Summary of Current Research" biete einen Überblick über die neuesten Forschungspublikationen über Lithium-Ionen-Batterien, erklärte die Goethe-Universität Frankfurt am Main. Dort wurde im Bereich Angewandte Computerlinguistik unter der Leitung von Christian Chiarcos jenes Verfahren entwickelt, das Textinhalte automatisch analysiert und relevante Publikationen auswählen kann. Es heißt "Beta Writer" und steht als Autor über dem Buch.
    Source
    https://www.heise.de/newsticker/meldung/Erstes-wissenschaftliches-Buch-eines-Algorithmus-veroeffentlicht-4399858.html
  4. Pöppe, C.: ¬Die Geheimfolie (1998) 0.07
    0.067289464 = product of:
      0.33644733 = sum of:
        0.33644733 = weight(_text_:algorithmus in 1255) [ClassicSimilarity], result of:
          0.33644733 = score(doc=1255,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.94985926 = fieldWeight in 1255, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.09375 = fieldNorm(doc=1255)
      0.2 = coord(1/5)
    
    Abstract
    Um sich zu vergewissern. daß man über die Datenleitung mit dem richtigen Partner kommuniziert, muß man nicht einen Algorithmus anwenden, den wieder nur ein Computer ausführen kann. Hinschauen genügt
  5. Kanaan, G.; Al-Shalabi, R.; Ghwanmeh, S.; Al-Ma'adeed, H.: ¬A comparison of text-classification techniques applied to Arabic text (2009) 0.07
    0.067289464 = product of:
      0.33644733 = sum of:
        0.33644733 = weight(_text_:algorithmus in 3096) [ClassicSimilarity], result of:
          0.33644733 = score(doc=3096,freq=8.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.94985926 = fieldWeight in 3096, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.046875 = fieldNorm(doc=3096)
      0.2 = coord(1/5)
    
    Object
    Bayes-Algorithmus
    Naive-Bayes-Algorithmus
    Rocchio-Algorithmus
    kNN-Algorithmus
  6. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.06
    0.06344112 = product of:
      0.31720558 = sum of:
        0.31720558 = weight(_text_:algorithmus in 865) [ClassicSimilarity], result of:
          0.31720558 = score(doc=865,freq=16.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.89553595 = fieldWeight in 865, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
      0.2 = coord(1/5)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
    Object
    Knuth-Morris-Pratt-Algorithmus
  7. Chakrabarti, S.; Dom, B.; Kumar, S.R.; Raghavan, P.; Rajagopalan, S.; Tomkins, A.; Kleinberg, J.M.; Gibson, D.: Neue Pfade durch den Internet-Dschungel : Die zweite Generation von Web-Suchmaschinen (1999) 0.06
    0.06344112 = product of:
      0.31720558 = sum of:
        0.31720558 = weight(_text_:algorithmus in 3) [ClassicSimilarity], result of:
          0.31720558 = score(doc=3,freq=4.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.89553595 = fieldWeight in 3, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
      0.2 = coord(1/5)
    
    Content
    Ausnutzen der Hyperlinks für verbesserte Such- und Findeverfahren; Darstellung des HITS-Algorithmus
    Object
    HITS-Algorithmus
  8. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.06
    0.06281998 = product of:
      0.3140999 = sum of:
        0.3140999 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
          0.3140999 = score(doc=140,freq=2.0), product of:
            0.419159 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.049440723 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.2 = coord(1/5)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  9. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.06
    0.06281998 = product of:
      0.3140999 = sum of:
        0.3140999 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
          0.3140999 = score(doc=230,freq=2.0), product of:
            0.419159 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.049440723 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
      0.2 = coord(1/5)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  10. Barth, A.P.: Algorithmik für Einsteiger : Für Studierende, Lehrer und Schüler in den Fächern Mathematik und Informatik (2003) 0.06
    0.05827439 = product of:
      0.29137194 = sum of:
        0.29137194 = weight(_text_:algorithmus in 1487) [ClassicSimilarity], result of:
          0.29137194 = score(doc=1487,freq=6.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.8226023 = fieldWeight in 1487, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.046875 = fieldNorm(doc=1487)
      0.2 = coord(1/5)
    
    Abstract
    Dieses Buch bietet eine Einführung in das mathematische Spezialgebiet der Algorithmik. Der Leser, die Leserin erfährt, was genau ein Algorithmus ist, und hat die Möglichkeit, aus zahlreichen historisch wichtigen oder aktuellen Beispielen von Algorithmen auszuwählen. Eine Untersuchung darüber, ob und wie Algorithmen noch beschleunigt werden können, mündet in eine kurze Einführung in die moderne mathematische Disziplin der "Komplexitätstheorie". Mit der Turing-Maschine wird ein einfaches und zugleich ungeheuer mächtiges theoretisches Computermodell vorgestellt, das Anlass zu interessanten Fragen über die Möglichkeiten und Grenzen der Computer gibt. Zum Schluss wird der Leser, die Leserin zu einem Ausflug eingeladen zu den Grenzen der Informatik, zu Problemen, die bewiesenermaßen algorithmisch unlösbar sind. Orakelmaschinen und widerspenstige Formeln runden das Buch ab.
    Content
    Was ist ungefähr ein Algorithmus - Beispiele von Algorithmen - Effizienz von Algorithmen - Turing-Maschinen: Was genau ist ein Algorithmus - Grenzen algorithmischer Berechenbarkeit - Anhang
  11. Zweig, K.A.: ¬Ein Algorithmus hat kein Taktgefühl : wo Künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können (2019) 0.06
    0.05827439 = product of:
      0.29137194 = sum of:
        0.29137194 = weight(_text_:algorithmus in 5430) [ClassicSimilarity], result of:
          0.29137194 = score(doc=5430,freq=6.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.8226023 = fieldWeight in 5430, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.046875 = fieldNorm(doc=5430)
      0.2 = coord(1/5)
    
    RSWK
    Künstliche Intelligenz / Algorithmus
    Subject
    Künstliche Intelligenz / Algorithmus
  12. SKOS2OWL : Online tool for deriving OWL ontologies from SKOS categorization schemas (2007) 0.06
    0.056074556 = product of:
      0.28037277 = sum of:
        0.28037277 = weight(_text_:algorithmus in 4691) [ClassicSimilarity], result of:
          0.28037277 = score(doc=4691,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.7915494 = fieldWeight in 4691, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.078125 = fieldNorm(doc=4691)
      0.2 = coord(1/5)
    
    Object
    GenTax-Algorithmus
  13. Strittmatter, K.: Chinas digitaler Plan für den besseren Menschen (2017) 0.06
    0.056074556 = product of:
      0.28037277 = sum of:
        0.28037277 = weight(_text_:algorithmus in 2114) [ClassicSimilarity], result of:
          0.28037277 = score(doc=2114,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.7915494 = fieldWeight in 2114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.078125 = fieldNorm(doc=2114)
      0.2 = coord(1/5)
    
    Abstract
    Immer den Zebrastreifen genutzt? Oder Filme raubkopiert? Was wäre, wenn ein Algorithmus all unser Tun kennt und bewertet? China bastelt am neuen Bürger - in drei Jahren soll er da sein.
  14. Bischoff, M.: KI lernt die Sprache der Mathematik (2020) 0.06
    0.056074556 = product of:
      0.28037277 = sum of:
        0.28037277 = weight(_text_:algorithmus in 5904) [ClassicSimilarity], result of:
          0.28037277 = score(doc=5904,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.7915494 = fieldWeight in 5904, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.078125 = fieldNorm(doc=5904)
      0.2 = coord(1/5)
    
    Abstract
    Bisher konnten neuronale Netze bloß einfache Ausdrücke addieren und multiplizieren. Nun haben Informatiker einen selbstlernenden Algorithmus vorgestellt, der Differenzialgleichungen löst und Stammfunktionen berechnet - und dabei alle bisherigen Methoden übertrifft.
  15. Krapp, L.S.: Wahr oder falsch? : ein Algorithmus entscheidet . . . (2021) 0.06
    0.056074556 = product of:
      0.28037277 = sum of:
        0.28037277 = weight(_text_:algorithmus in 928) [ClassicSimilarity], result of:
          0.28037277 = score(doc=928,freq=2.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.7915494 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.078125 = fieldNorm(doc=928)
      0.2 = coord(1/5)
    
  16. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.05
    0.05496748 = product of:
      0.2748374 = sum of:
        0.2748374 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
          0.2748374 = score(doc=306,freq=2.0), product of:
            0.419159 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.049440723 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.2 = coord(1/5)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  17. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.05
    0.05496748 = product of:
      0.2748374 = sum of:
        0.2748374 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
          0.2748374 = score(doc=5955,freq=2.0), product of:
            0.419159 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.049440723 = queryNorm
            0.65568775 = fieldWeight in 5955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5955)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
  18. Malsburg, C. von der: Gehirn und Computer (2002) 0.05
    0.05494162 = product of:
      0.2747081 = sum of:
        0.2747081 = weight(_text_:algorithmus in 5127) [ClassicSimilarity], result of:
          0.2747081 = score(doc=5127,freq=12.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.77555686 = fieldWeight in 5127, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.03125 = fieldNorm(doc=5127)
      0.2 = coord(1/5)
    
    Abstract
    Der Computer ist ein Gerät, das Algorithmen ausführt, d.h. Folgen einfacher Befehle, Das Charakteristische an einem Algorithmus ist, dass all' seine qualitativen Eigenschaften im Voraus geplant und ausprobiert sind, so dass während seiner Ausführung keine Ideen benötigt werden, keine qualitativen Fragen offen sind und keine Überraschungen vorkommen. Nur quantitative Entscheidungen müssen getroffen werden (z.B. "Nimm die nächste Ziffer und addiere sie zum Ergebnis!"). Genau diese Eigenschaft hat Alan Turing dazu geführt, Algorithmen als Maschinen zu formulieren. Es gibt eine sehr klare Trennung zwischen dem qualitativen und quantitativen Aspekt eines Algorithmus: Ersterer wird vom menschlichen Geist erfunden und als Regel formuliert, letzterer hat mit den Daten zu tun, die von den Regel bearbeitet werden. Die Regeln wirken niemals auf ihre eigene Struktur zurück. Wenn man sich bei der Betrachtung auf die äußerlich sichtbare Struktur von Algorithmen beschränkt, lässt man wichtige verborgene Aspekte außer Acht: Die Semantik, die den Symbolen Substanz, Bedeutung und Interpretation verleiht und auf Grund derer entschieden werden kann, ob die Regeln und Operationen überhaupt sinnvoll sind; Theologie, d.h. Motivation, Ziele, Werte, Ästhetik und Anwendbarkeitsbetrachtungen; und Heuristik, d.h. Methoden zur Erfindung neuer Strukturen. All' diese verborgenen Aspekte sind von der expliziten Betrachtung ausgeschlossen und sind doch wesentliche Bestandteile der Strukturen, für die explizite Algorithmen nur die sichtbare Oberfläche darstellen, Wenn man sich mit Algorithmen beschäftigt, hat man die Wahl, entweder nur die expliziten Strukturen zu betrachten - ein Blickpunkt, der im Kontext der Mathematik angemessen ist - oder auch die verborgenen Aspekte zu berücksichtigen und die Situation umfassend zu behandeln. Wenn man sich mit dem Gehirn und seiner Funktion befasst, ist letzteres Vorgehen zwingend. Verschiedene Probleme erwachsen der gegenwärtig vorherrschenden Auffassung, das Gehirn könne als algorithmisch gesteuerte Maschine verstanden werden. Erstens wäre ein "Hirnalgorithmus", d.h. eine vollständige und detaillierte Beschreibung der Funktionsweise des Gehirns, prinzipiell zu kompliziert, um für Menschen handhabbar oder zur Mitteilung von Wissen über unseren Geist geeignet zu sein. Zweitens lässt die algorithmische Auffassung die Frage offen, woher der Algorithmus eigentlich komme. Die naheliegende Antwort, dass er von der Evolution entwickelt wurde, verbietet sich, weil der Algorithmus viel zu kompliziert wäre, um über die Gene von Generation zu Generation weitergegeben zu werden, und weil die Evolution keinesfalls Prozeduren entwickelt haben kann, die für so neuartige Ideen wie Mathematik oder Chemie geeignet wären. Ein drittes Problem ist, dass sich das Gehirn offensichtlich selbst modifiziert, wenn es neue Ideen entwickelt, Dies widerspricht deutlich dem algorithmischen Denkansatz, der fordert, dass alle qualitativen Aspekte vorausgeplant sein müssen. Ein viertes Problem ist die Tatsache, dass der algorithmische Ansatz eine klare Abtrennung der Heuristik und der Teleologie vom expliziten Algorithmus fordert. Zusammengefasst wäre es lächerlich, die Arbeitsweise unseres Gehirns mit der Ausführung eines Algorithmus zu identifizieren.
  19. Korves, J.: Seiten bewerten : Googles PageRank (2005) 0.05
    0.05494162 = product of:
      0.2747081 = sum of:
        0.2747081 = weight(_text_:algorithmus in 866) [ClassicSimilarity], result of:
          0.2747081 = score(doc=866,freq=12.0), product of:
            0.35420755 = queryWeight, product of:
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.049440723 = queryNorm
            0.77555686 = fieldWeight in 866, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              7.1642876 = idf(docFreq=92, maxDocs=44218)
              0.03125 = fieldNorm(doc=866)
      0.2 = coord(1/5)
    
    Abstract
    Mit der Entstehung des World Wide Web im Jahre 1989 und dem darauf folgenden rasanten Anstieg der Zahl an Webseiten, kam es sehr schnell zu der Notwendigkeit, eine gewisse Ordnung in die Vielzahl von Inhalten zu bringen. So wurde schon im Jahre 1991 ein erster Vorläufer der heutigen Websuchmaschinen namens Gopher entwickelt. Die Struktur von Gopher, bei der zunächst alle Webseiten katalogisiert wurden, um anschließend komplett durchsucht werden zu können, war damals richtungweisend und wird auch heute noch in den meisten anderen Websuchmaschinen verwendet. Von damals bis heute hat sich sehr viel am Markt der Suchmaschinen verändert. Seit dem Jahre 2004 gibt es nur mehr drei große Websuchmaschinen, bezogen auf die Anzahl erfasster Dokumente. Neben Yahoo! Search und Microsofts MSN Search ist Google die bisher erfolgreichste Suchmaschine der Welt. Dargestellt werden die Suchergebnisse, indem sie der Relevanz nach sortiert werden. Jede Suchmaschine hat ihre eigenen geheimen Kriterien, welche für die Bewertung der Relevanz herangezogen werden. Googles Suchergebnisse werden aus einer Kombination zweier Verfahren angeordnet. Neben der Hypertext-Matching-Analyse ist dies die PageRank-Technologie. Der so genannte PageRank-Algorithmus, benannt nach seinem Erfinder Lawrence Page, ist die wesentliche Komponente, die Google auf seinen Erfolgsweg gebracht hat. Über die genaue Funktionsweise dieses Algorithmus hat Google, insbesondere nach einigen Verbesserungen in den letzten Jahren, nicht alle Details preisgegeben. Fest steht jedoch, dass der PageRank-Algorithmus die Relevanz einer Webseite auf Basis der Hyperlinkstruktur des Webs berechnet, wobei die Relevanz einer Webseite danach gewichtet wird, wie viele Links auf sie zeigen und Verweise von ihrerseits stark verlinkten Seiten stärker ins Gewicht fallen.
    Diese Seminararbeit widmet sich der Darstellung des PageRank-Algorithmus sowie der Erläuterung von Verbesserungen, durch die der Algorithmus schneller und effizienter wird. Hierzu werden dem Leser in Kapitel 2 zunächst einige Grundlagen nahe gebracht. Anschließend wird im Hauptteil dieser Ausarbeitung in Kapitel 3 detailliert auf den PageRank-Algorithmus sowie auf drei Weiterentwicklungen eingegangen, welche die Verarbeitungseffizienz des Grundalgorithmus so erhöhen, dass dadurch ein themenspezifisches Ranking ermöglicht werden könnte. Abschließend werden die Ergebnisse in Kapitel 4 zusammengefasst und ein Ausblick auf die Zukunft gegeben.
  20. #220 0.05
    0.053049695 = product of:
      0.26524848 = sum of:
        0.26524848 = weight(_text_:22 in 219) [ClassicSimilarity], result of:
          0.26524848 = score(doc=219,freq=4.0), product of:
            0.17313299 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.049440723 = queryNorm
            1.5320505 = fieldWeight in 219, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.21875 = fieldNorm(doc=219)
      0.2 = coord(1/5)
    
    Date
    22. 5.1998 20:02:22

Languages

Types

  • a 3093
  • m 356
  • el 182
  • s 140
  • x 43
  • b 39
  • i 23
  • r 17
  • ? 8
  • d 4
  • p 4
  • n 3
  • u 2
  • z 2
  • au 1
  • h 1
  • More… Less…

Themes

Subjects

Classifications