Search (791 results, page 1 of 40)

  • × type_ss:"el"
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.31
    0.31075683 = product of:
      0.41434243 = sum of:
        0.098132715 = product of:
          0.29439813 = sum of:
            0.29439813 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.29439813 = score(doc=1826,freq=2.0), product of:
                0.31429395 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03707166 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.29439813 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.29439813 = score(doc=1826,freq=2.0), product of:
            0.31429395 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03707166 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.021811578 = product of:
          0.043623157 = sum of:
            0.043623157 = weight(_text_:web in 1826) [ClassicSimilarity], result of:
              0.043623157 = score(doc=1826,freq=2.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.36057037 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.16
    0.15701234 = product of:
      0.3140247 = sum of:
        0.07850617 = product of:
          0.2355185 = sum of:
            0.2355185 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.2355185 = score(doc=230,freq=2.0), product of:
                0.31429395 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03707166 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.2355185 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.2355185 = score(doc=230,freq=2.0), product of:
            0.31429395 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03707166 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
      0.5 = coord(2/4)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  3. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.16
    0.15537842 = product of:
      0.20717122 = sum of:
        0.049066357 = product of:
          0.14719906 = sum of:
            0.14719906 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.14719906 = score(doc=4388,freq=2.0), product of:
                0.31429395 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03707166 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.14719906 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.14719906 = score(doc=4388,freq=2.0), product of:
            0.31429395 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03707166 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010905789 = product of:
          0.021811578 = sum of:
            0.021811578 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
              0.021811578 = score(doc=4388,freq=2.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.18028519 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  4. Web-Publishing : So gestalten Sie Ihre HTML-Seiten: HTML-Editoren - Grafik-Programme - Konverter (1996) 0.07
    0.06562298 = product of:
      0.2624919 = sum of:
        0.2624919 = sum of:
          0.052347783 = weight(_text_:web in 4468) [ClassicSimilarity], result of:
            0.052347783 = score(doc=4468,freq=2.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.43268442 = fieldWeight in 4468, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.09375 = fieldNorm(doc=4468)
          0.21014413 = weight(_text_:seiten in 4468) [ClassicSimilarity], result of:
            0.21014413 = score(doc=4468,freq=4.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              1.0309515 = fieldWeight in 4468, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.09375 = fieldNorm(doc=4468)
      0.25 = coord(1/4)
    
    Content
    CD enthält: Leistungsfähige HTML-Editoren; Grafikprogramme mit speziellen HTML-Features; Konverter, mit denen Sie vorhandene Text- und DTP-Dateien in HTML-Seiten umwandeln; HTML-Demoseiten
  5. Dambeck, H.: Wie Google mit Milliarden Unbekannten rechnet : Teil 2: Ausgerechnet: Der Page Rank für ein Mini-Web aus drei Seiten (2009) 0.06
    0.059203148 = product of:
      0.23681259 = sum of:
        0.23681259 = sum of:
          0.061692458 = weight(_text_:web in 3080) [ClassicSimilarity], result of:
            0.061692458 = score(doc=3080,freq=4.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.5099235 = fieldWeight in 3080, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.078125 = fieldNorm(doc=3080)
          0.17512013 = weight(_text_:seiten in 3080) [ClassicSimilarity], result of:
            0.17512013 = score(doc=3080,freq=4.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.8591263 = fieldWeight in 3080, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.078125 = fieldNorm(doc=3080)
      0.25 = coord(1/4)
    
    Abstract
    Ein simples Beispiel eines Mini-Internets aus drei Web-Seiten verdeutlicht, wie dieses Ranking-System in der Praxis funktioniert.
  6. Internet-Agenten : intelligente Suchwerkzeuge für das Internet (1996) 0.05
    0.04638027 = product of:
      0.18552108 = sum of:
        0.18552108 = sum of:
          0.061692458 = weight(_text_:web in 4499) [ClassicSimilarity], result of:
            0.061692458 = score(doc=4499,freq=4.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.5099235 = fieldWeight in 4499, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.078125 = fieldNorm(doc=4499)
          0.12382862 = weight(_text_:seiten in 4499) [ClassicSimilarity], result of:
            0.12382862 = score(doc=4499,freq=2.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.607494 = fieldWeight in 4499, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.078125 = fieldNorm(doc=4499)
      0.25 = coord(1/4)
    
    Abstract
    Die Spezial-CD, mit der Sie jetzt blitzschnell und treffsicher durch das Net surfen: Hier finden Sie alle Tricks, wie Sie mit intelligenten Suchsystemen, den 'Robots', 'Wanderers', 'Worms' oder 'Spiders', Millionen von Web-Seiten durchsuchen und sofort zur richtigen Fundstelle kommen
    Theme
    Web-Agenten
  7. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.05
    0.045258567 = product of:
      0.18103427 = sum of:
        0.18103427 = sum of:
          0.052347783 = weight(_text_:web in 2434) [ClassicSimilarity], result of:
            0.052347783 = score(doc=2434,freq=8.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.43268442 = fieldWeight in 2434, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.046875 = fieldNorm(doc=2434)
          0.12868649 = weight(_text_:seiten in 2434) [ClassicSimilarity], result of:
            0.12868649 = score(doc=2434,freq=6.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.6313263 = fieldWeight in 2434, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.046875 = fieldNorm(doc=2434)
      0.25 = coord(1/4)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert, berichtet Technology Review in seiner Online-Ausgabe. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbstständig ermittelt.""
    Source
    http://www.heise.de/newsticker/Semantische-Suche-ueber-500-Millionen-Web-Dokumente--/meldung/140630
  8. cis: Nationalbibliothek will das deutsche Internet kopieren (2008) 0.04
    0.04003802 = product of:
      0.08007604 = sum of:
        0.07656015 = sum of:
          0.015268105 = weight(_text_:web in 4609) [ClassicSimilarity], result of:
            0.015268105 = score(doc=4609,freq=2.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.12619963 = fieldWeight in 4609, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4609)
          0.06129204 = weight(_text_:seiten in 4609) [ClassicSimilarity], result of:
            0.06129204 = score(doc=4609,freq=4.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.3006942 = fieldWeight in 4609, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4609)
        0.0035158885 = product of:
          0.017579442 = sum of:
            0.017579442 = weight(_text_:22 in 4609) [ClassicSimilarity], result of:
              0.017579442 = score(doc=4609,freq=2.0), product of:
                0.12981863 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03707166 = queryNorm
                0.1354154 = fieldWeight in 4609, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4609)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Content
    "Ab heute müsste kopiert und abgespeichert werden - eigentlich. Fast jede Webseite, samt Bildern, Texten und sogar Audiodateien soll die Deutsche Nationalbibliothek archivieren, im Auftrag der Bundesregierung. Das Kopieren und Abspeichern sollen die Bundes-Bibliothekare aber nicht übernehmen. Das sollen die Seitenbetreiber machen. Am Donnerstag wurde die Verordnung über die Pflichtablieferung von Medienwerken an die Deutsche Nationalbibliothek im Bundesgesetzblatt veröffentlicht - damit ist sie rechtskräftig. Auf den Seiten der Deutschen Nationalbibliothek ist auch nachzulesen, was da von nun an alles gesammelt werden soll: "Alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden." Mit anderen Worten: Die Nationalbibliothek möchte in regelmäßigen Abständen vollständige Kopien des deutschen Internets bekommen, einschließlich multimedialer Elemente. Ausgenommen sind lediglich "zeitlich begrenzte Vorabveröffentlichungen, reine Software- oder Anwendungstools und auch Fernseh- und Hörfunkproduktionen" Der Branchenverband Bitkom hatte schon im vergangenen Jahr gegen das Gesetz protestiert, der Widerstand verpuffte jedoch ohne Konsequenz. Deutsche Firmen werde die tatsächliche Umsetzung der Regelung 115 Millionen Euro jährlich kosten, schätzte der Verband damals. Was an Kosten auf den Steuerzahler zukommt, ist noch vollkommen unklar. Die Regelung ist das Ergebnis eines Gesetzes, das schon aus dem Jahr 2006 stammt: Dem Gesetz über die Deutsche Nationalbibliothek ( DNBG). Jetzt ist das Gesetz samt erklärender Verordnung da - aber wie das alles genau funktionieren soll, wer die riesigen Mengen Speicherplatz zur Verfügung stehen wird, das scheint noch niemand so recht zu wissen.
    Ablieferung als PDF oder Zip-Archiv Geschehen soll die Ablieferung am liebsten in PDF-Form, über ein Webformular. Bei Bedarf, nämlich "wenn Ihre Netzpublikation aus mehreren Dateien besteht, z. B. einer oder mehreren HTML-Seiten mit Bildern", darf man sie auch auch als Zip-Archiv abgeben. Wie es sich mit privaten Webseiten genau verhält, ist derzeit nicht ganz klar. "Lediglich privaten Zwecken dienende Websites" sind beispielsweise freigestellt - aber was genau ist im Netz lediglich privat? Ein Blog? Auch, wenn darin das Weltgeschehen oder die deutsche Politik kommentiert wird? Auch dann, wenn neben den Blog-Einträgen Google-Anzeigen erscheinen? Da es sich um eine Pflichtabgabe handelt, ist sie, zumindest theoretisch, auch strafbewehrt. Nach einer Abmahnung kann es heise.de zufolge bis zu 10.000 Euro Strafe kosten, wenn man seine Netz-Inhalte nicht bei der DNB abliefert. Eine Erklärseite der DNB schränkt allerdings ein: "Die Entwicklung geeigneter Verfahren für den Massenbetrieb der Sammlung, Erschließung und Archivierung von Netzpublikationen erfolgt stufenweise." Im Klartext: Man weiß bei der DNB selbst noch nicht so genau, wie das alles funktionieren und organisiert werden soll. So lange das nicht abschließend geklärt ist, wird die Bibliothek "keine Ordnungswidrigkeitsverfahren anstrengen". Außerdem werde man "abzuliefernde Netzpublikationen gegebenenfalls nicht gleich übernehmen, sondern vormerken und erst anfordern, wenn der Stand der Technik und der Absprachen dies zulässt." Zudem hat die Bibliothek das Recht, von der Übernahme von Inhalten abzusehen, unter anderem dann, wenn "technische Verfahren die Sammlung und Archivierung nicht oder nur mit beträchtlichem Aufwand erlauben". Bleibt abzuwarten, wie weit die Nationalbibliothek diese Ausnahmen ausdehnen wird - sonst kommt ein Speicherplatzbedarf auf die Einrichtung zu, der den Steuerzahler beträchtliche Summen kosten dürfte."
    Date
    24.10.2008 14:19:22
    Footnote
    Vgl. unter: http://www.spiegel.de/netzwelt/web/0,1518,586036,00.html.
  9. Schmidt, A.P.: ¬Der Wissensnavigator : Das Lexikon der Zukunft (1999) 0.04
    0.035517674 = product of:
      0.07103535 = sum of:
        0.06698071 = sum of:
          0.017449262 = weight(_text_:web in 3315) [ClassicSimilarity], result of:
            0.017449262 = score(doc=3315,freq=2.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.14422815 = fieldWeight in 3315, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=3315)
          0.04953145 = weight(_text_:seiten in 3315) [ClassicSimilarity], result of:
            0.04953145 = score(doc=3315,freq=2.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.2429976 = fieldWeight in 3315, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03125 = fieldNorm(doc=3315)
        0.004054633 = product of:
          0.020273164 = sum of:
            0.020273164 = weight(_text_:29 in 3315) [ClassicSimilarity], result of:
              0.020273164 = score(doc=3315,freq=2.0), product of:
                0.13040651 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03707166 = queryNorm
                0.15546128 = fieldWeight in 3315, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3315)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Abstract
    Der Wissensnavigator ist ein Lexikon der Zukunft auf dem Weg zu einer interaktiven Enzyklopädie. Wenn Sie die elektronische Fassung online benutzen, können Sie von den einzelnen Artikeln über Hyperlinks zu Seiten im World Wide Web gelangen, die noch mehr Informationen zum jeweiligen Zukunftsbegriff enthalten. Bei der elektronischen Ausgabe des Wissensnavigators, die auch im Internet zugänglich ist handelt es sich um eine "lebende" Anwendung, die sich gerade auch durch die Mitwirkung der Nutzer weiterentwickelt. Sie sind herzlich eingeladen, zum Teilnehmer dieses Evolutionsprozesses zu werden - etwa, indem Sie neue Begriffe vorschlagen, die aufgenommen werden sollen, oder Experten benennen, die zur Bearbeitung neuer Begriffe in Frage kommen, oder auch sich selbst als Experte zu erkennen geben. Eine Redaktion, die aus dem Autor und einem Expertenteam im Verlag besteht, wird über die Aufnahme neuer Begriffe entscheiden
    Date
    25. 2.2008 19:29:40
  10. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.03
    0.034857552 = product of:
      0.069715105 = sum of:
        0.049066357 = product of:
          0.14719906 = sum of:
            0.14719906 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.14719906 = score(doc=5669,freq=2.0), product of:
                0.31429395 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03707166 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
        0.020648746 = product of:
          0.05162186 = sum of:
            0.026280407 = weight(_text_:28 in 5669) [ClassicSimilarity], result of:
              0.026280407 = score(doc=5669,freq=2.0), product of:
                0.13280044 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03707166 = queryNorm
                0.19789396 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
            0.025341455 = weight(_text_:29 in 5669) [ClassicSimilarity], result of:
              0.025341455 = score(doc=5669,freq=2.0), product of:
                0.13040651 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03707166 = queryNorm
                0.19432661 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.4 = coord(2/5)
      0.5 = coord(2/4)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
    Date
    28. 1.2020 19:35:33
  11. Hollink, L.; Assem, M. van: Estimating the relevance of search results in the Culture-Web : a study of semantic distance measures (2010) 0.03
    0.031739607 = product of:
      0.063479215 = sum of:
        0.03926084 = product of:
          0.07852168 = sum of:
            0.07852168 = weight(_text_:web in 4649) [ClassicSimilarity], result of:
              0.07852168 = score(doc=4649,freq=18.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.64902663 = fieldWeight in 4649, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4649)
          0.5 = coord(1/2)
        0.024218373 = product of:
          0.060545933 = sum of:
            0.030409746 = weight(_text_:29 in 4649) [ClassicSimilarity], result of:
              0.030409746 = score(doc=4649,freq=2.0), product of:
                0.13040651 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03707166 = queryNorm
                0.23319192 = fieldWeight in 4649, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4649)
            0.030136187 = weight(_text_:22 in 4649) [ClassicSimilarity], result of:
              0.030136187 = score(doc=4649,freq=2.0), product of:
                0.12981863 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03707166 = queryNorm
                0.23214069 = fieldWeight in 4649, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4649)
          0.4 = coord(2/5)
      0.5 = coord(2/4)
    
    Abstract
    More and more cultural heritage institutions publish their collections, vocabularies and metadata on the Web. The resulting Web of linked cultural data opens up exciting new possibilities for searching and browsing through these cultural heritage collections. We report on ongoing work in which we investigate the estimation of relevance in this Web of Culture. We study existing measures of semantic distance and how they apply to two use cases. The use cases relate to the structured, multilingual and multimodal nature of the Culture Web. We distinguish between measures using the Web, such as Google distance and PMI, and measures using the Linked Data Web, i.e. the semantic structure of metadata vocabularies. We perform a small study in which we compare these semantic distance measures to human judgements of relevance. Although it is too early to draw any definitive conclusions, the study provides new insights into the applicability of semantic distance measures to the Web of Culture, and clear starting points for further research.
    Date
    29. 7.2011 14:44:56
    26.12.2011 13:40:22
    Theme
    Semantic Web
  12. Talbot, D.: Durchblick im Infodschungel (2009) 0.03
    0.030064598 = product of:
      0.12025839 = sum of:
        0.12025839 = sum of:
          0.029263305 = weight(_text_:web in 2865) [ClassicSimilarity], result of:
            0.029263305 = score(doc=2865,freq=10.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.24187797 = fieldWeight in 2865, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2865)
          0.09099509 = weight(_text_:seiten in 2865) [ClassicSimilarity], result of:
            0.09099509 = score(doc=2865,freq=12.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.44641513 = fieldWeight in 2865, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2865)
      0.25 = coord(1/4)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.
    Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
    Footnote
    Vgl. auch: http://www.heise.de/newsticker/Semantische-Suche-ueber-500-Millionen-Web-Dokumente--/meldung/140630.
  13. Aslam, S.; Sonkar, S.K.: Semantic Web : an overview (2019) 0.03
    0.028731618 = product of:
      0.057463236 = sum of:
        0.04935397 = product of:
          0.09870794 = sum of:
            0.09870794 = weight(_text_:web in 54) [ClassicSimilarity], result of:
              0.09870794 = score(doc=54,freq=16.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.8158776 = fieldWeight in 54, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=54)
          0.5 = coord(1/2)
        0.008109266 = product of:
          0.040546328 = sum of:
            0.040546328 = weight(_text_:29 in 54) [ClassicSimilarity], result of:
              0.040546328 = score(doc=54,freq=2.0), product of:
                0.13040651 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03707166 = queryNorm
                0.31092256 = fieldWeight in 54, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=54)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Abstract
    This paper presents the semantic web, web writing content, web technology, goals of semantic and obligation for the expansion of web 3.0. This paper also shows the different components of semantic web and such as HTTP, HTML, XML, XML Schema, URI, RDF, Taxonomy and OWL. To provide valuable information services semantic web execute the benefits of library functions and also to be the best use of library collection are mention here.
    Date
    10.12.2020 9:29:12
    Theme
    Semantic Web
  14. Panzer, M.: Designing identifiers for the DDC (2007) 0.03
    0.02865379 = product of:
      0.05730758 = sum of:
        0.018507738 = product of:
          0.037015475 = sum of:
            0.037015475 = weight(_text_:web in 1752) [ClassicSimilarity], result of:
              0.037015475 = score(doc=1752,freq=16.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.3059541 = fieldWeight in 1752, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1752)
          0.5 = coord(1/2)
        0.03879984 = product of:
          0.0646664 = sum of:
            0.015768243 = weight(_text_:28 in 1752) [ClassicSimilarity], result of:
              0.015768243 = score(doc=1752,freq=2.0), product of:
                0.13280044 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03707166 = queryNorm
                0.11873637 = fieldWeight in 1752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1752)
            0.015204873 = weight(_text_:29 in 1752) [ClassicSimilarity], result of:
              0.015204873 = score(doc=1752,freq=2.0), product of:
                0.13040651 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03707166 = queryNorm
                0.11659596 = fieldWeight in 1752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1752)
            0.033693284 = weight(_text_:22 in 1752) [ClassicSimilarity], result of:
              0.033693284 = score(doc=1752,freq=10.0), product of:
                0.12981863 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03707166 = queryNorm
                0.2595412 = fieldWeight in 1752, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1752)
          0.6 = coord(3/5)
      0.5 = coord(2/4)
    
    Content
    "Although the Dewey Decimal Classification is currently available on the web to subscribers as WebDewey and Abridged WebDewey in the OCLC Connexion service and in an XML version to licensees, OCLC does not provide any "web services" based on the DDC. By web services, we mean presentation of the DDC to other machines (not humans) for uses such as searching, browsing, classifying, mapping, harvesting, and alerting. In order to build web-accessible services based on the DDC, several elements have to be considered. One of these elements is the design of an appropriate Uniform Resource Identifier (URI) structure for Dewey. The design goals of mapping the entity model of the DDC into an identifier space can be summarized as follows: * Common locator for Dewey concepts and associated resources for use in web services and web applications * Use-case-driven, but not directly related to and outlasting a specific use case (persistency) * Retraceable path to a concept rather than an abstract identification, reusing a means of identification that is already present in the DDC and available in existing metadata. We have been working closely with our colleagues in the OCLC Office of Research (especially Andy Houghton as well as Eric Childress, Diane Vizine-Goetz, and Stu Weibel) on a preliminary identifier syntax. The basic identifier format we are currently exploring is: http://dewey.info/{aspect}/{object}/{locale}/{type}/{version}/{resource} where * {aspect} is the aspect associated with an {object}-the current value set of aspect contains "concept", "scheme", and "index"; additional ones are under exploration * {object} is a type of {aspect} * {locale} identifies a Dewey translation * {type} identifies a Dewey edition type and contains, at a minimum, the values "edn" for the full edition or "abr" for the abridged edition * {version} identifies a Dewey edition version * {resource} identifies a resource associated with an {object} in the context of {locale}, {type}, and {version}
    Some examples of identifiers for concepts follow: <http://dewey.info/concept/338.4/en/edn/22/> This identifier is used to retrieve or identify the 338.4 concept in the English-language version of Edition 22. <http://dewey.info/concept/338.4/de/edn/22/> This identifier is used to retrieve or identify the 338.4 concept in the German-language version of Edition 22. <http://dewey.info/concept/333.7-333.9/> This identifier is used to retrieve or identify the 333.7-333.9 concept across all editions and language versions. <http://dewey.info/concept/333.7-333.9/about.skos> This identifier is used to retrieve a SKOS representation of the 333.7-333.9 concept (using the "resource" element). There are several open issues at this preliminary stage of development: Use cases: URIs need to represent the range of statements or questions that could be submitted to a Dewey web service. Therefore, it seems that some general questions have to be answered first: What information does an agent have when coming to a Dewey web service? What kind of questions will such an agent ask? Placement of the {locale} component: It is still an open question if the {locale} component should be placed after the {version} component instead (<http://dewey.info/concept/338.4/edn/22/en>) to emphasize that the most important instantiation of a Dewey class is its edition, not its language version. From a services point of view, however, it could make more sense to keep the current arrangement, because users are more likely to come to the service with a present understanding of the language version they are seeking without knowing the specifics of a certain edition in which they are trying to find topics. Identification of other Dewey entities: The goal is to create a locator that does not answer all, but a lot of questions that could be asked about the DDC. Which entities are missing but should be surfaced for services or user agents? How will those services or agents interact with them? Should some entities be rendered in a different way as presented? For example, (how) should the DDC Summaries be retrievable? Would it be necessary to make the DDC Manual accessible through this identifier structure?"
    Date
    21. 3.2008 19:29:28
  15. Hartmann, S.; Haffner, A.: Linked-RDA-Data in der Praxis (2010) 0.03
    0.028484076 = product of:
      0.056968153 = sum of:
        0.024676984 = product of:
          0.04935397 = sum of:
            0.04935397 = weight(_text_:web in 1679) [ClassicSimilarity], result of:
              0.04935397 = score(doc=1679,freq=4.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.4079388 = fieldWeight in 1679, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1679)
          0.5 = coord(1/2)
        0.032291166 = product of:
          0.08072791 = sum of:
            0.040546328 = weight(_text_:29 in 1679) [ClassicSimilarity], result of:
              0.040546328 = score(doc=1679,freq=2.0), product of:
                0.13040651 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03707166 = queryNorm
                0.31092256 = fieldWeight in 1679, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1679)
            0.040181585 = weight(_text_:22 in 1679) [ClassicSimilarity], result of:
              0.040181585 = score(doc=1679,freq=2.0), product of:
                0.12981863 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03707166 = queryNorm
                0.30952093 = fieldWeight in 1679, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1679)
          0.4 = coord(2/5)
      0.5 = coord(2/4)
    
    Abstract
    Durch den neuen Erschließungsstandard "Resource Description and Access" (RDA) lassen sich bibliografische Daten sowie Normdaten Semantic-Web-konform repräsentieren. Der Vortrag soll aufzeigen, welche Auswirkungen RDA auf die Katalogisierung in Bibliotheken und den Zugang zu den erschlossenen Ressourcen im Semantic Web hat. Anhand erster Erfahrungen aus praktischen Umsetzungen wird erläutert, wie bibliografische Daten durch RDA und Linked-Data-Technologien besser zugänglich gemacht und vor allem nachgenutzt werden können.
    Content
    Vortrag, anlässlich der SWIB 2010, 29./30.11.2010 in Köln.
    Date
    13. 2.2011 20:22:23
  16. Best Practice Recipes for Publishing RDF Vocabularies (2008) 0.03
    0.027676687 = product of:
      0.055353373 = sum of:
        0.026445134 = product of:
          0.052890267 = sum of:
            0.052890267 = weight(_text_:web in 4471) [ClassicSimilarity], result of:
              0.052890267 = score(doc=4471,freq=6.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.43716836 = fieldWeight in 4471, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4471)
          0.5 = coord(1/2)
        0.028908242 = product of:
          0.0722706 = sum of:
            0.03679257 = weight(_text_:28 in 4471) [ClassicSimilarity], result of:
              0.03679257 = score(doc=4471,freq=2.0), product of:
                0.13280044 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03707166 = queryNorm
                0.27705154 = fieldWeight in 4471, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4471)
            0.035478037 = weight(_text_:29 in 4471) [ClassicSimilarity], result of:
              0.035478037 = score(doc=4471,freq=2.0), product of:
                0.13040651 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03707166 = queryNorm
                0.27205724 = fieldWeight in 4471, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4471)
          0.4 = coord(2/5)
      0.5 = coord(2/4)
    
    Abstract
    This document describes best practice recipes for publishing vocabularies or ontologies on the Web (in RDF Schema or OWL). The features of each recipe are described in detail, so that vocabulary designers may choose the recipe best suited to their needs. Each recipe introduces general principles and an example configuration for use with an Apache HTTP server (which may be adapted to other environments). The recipes are all designed to be consistent with the architecture of the Web as currently specified, although the associated example configurations have been kept intentionally simple.
    Date
    14. 8.2011 14:29:06
    Issue
    W3C Working Group Note 28 August 2008.
    Theme
    Semantic Web
  17. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.03
    0.026433505 = product of:
      0.10573402 = sum of:
        0.10573402 = sum of:
          0.022667257 = weight(_text_:web in 3385) [ClassicSimilarity], result of:
            0.022667257 = score(doc=3385,freq=6.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.18735787 = fieldWeight in 3385, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3385)
          0.08306676 = weight(_text_:seiten in 3385) [ClassicSimilarity], result of:
            0.08306676 = score(doc=3385,freq=10.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.40751937 = fieldWeight in 3385, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3385)
      0.25 = coord(1/4)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
    Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
  18. Laaff, M.: Googles genialer Urahn (2011) 0.03
    0.026178943 = product of:
      0.052357886 = sum of:
        0.049846537 = sum of:
          0.01888938 = weight(_text_:web in 4610) [ClassicSimilarity], result of:
            0.01888938 = score(doc=4610,freq=6.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.15613155 = fieldWeight in 4610, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.01953125 = fieldNorm(doc=4610)
          0.030957155 = weight(_text_:seiten in 4610) [ClassicSimilarity], result of:
            0.030957155 = score(doc=4610,freq=2.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.1518735 = fieldWeight in 4610, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.01953125 = fieldNorm(doc=4610)
        0.0025113493 = product of:
          0.012556746 = sum of:
            0.012556746 = weight(_text_:22 in 4610) [ClassicSimilarity], result of:
              0.012556746 = score(doc=4610,freq=2.0), product of:
                0.12981863 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03707166 = queryNorm
                0.09672529 = fieldWeight in 4610, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4610)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Content
    Karteikästen, Telefone, Multimedia-Möbel 1934 entwickelte Otlet die Idee eines weltweiten Wissens-"Netzes". Er versuchte, kaum dass Radio und Fernsehen erfunden waren, Multimedia-Konzepte zu entwickeln, um die Kooperationsmöglichkeiten für Forscher zu verbessern. Otlet zerbrach sich den Kopf darüber, wie Wissen über große Distanzen zugänglich gemacht werden kann. Er entwickelte Multimedia-Arbeitsmöbel, die mit Karteikästen, Telefonen und anderen Features das versuchten, was heute an jedem Rechner möglich ist. Auch ohne die Hilfe elektronischer Datenverarbeitung entwickelte er Ideen, deren Umsetzung wir heute unter Begriffen wie Web 2.0 oder Wikipedia kennen. Trotzdem sind sein Name und seine Arbeit heute weitgehend in Vergessenheit geraten. Als Vordenker von Hypertext und Internet gelten die US-Amerikaner Vannevar Bush, Ted Nelson und Douglas Engelbart. Die Überbleibsel der Mundaneum-Sammlung vermoderten jahrzehntelang auf halb verfallenen Dachböden.
    "Ein universelles Netzwerk, das die Verbreitung von Wissen erlaubt." In seinem 400 Seiten dicken Buch "Traité de documentation" sammelte er all diese Ideen. Er skizzierte eine wissenschaftliche Konferenz, die per Telefon übertragen werden sollte und spann die Idee weiter - warum nicht auch mit Bildübertragung? "Radiotelefotografie"! Grammophone sollten gesprochene Informationen archivierbar und reproduzierbar machen. "Kürzlich haben wir einen Text aus dem Jahr 1907 gefunden, in dem er von einem mobilen Telefon spricht", sagt der Archivar Gillen, während er behutsam die dünnen Original-Skizzen Otlets von all diesen Visionen wieder einpackt. Besonders das neue Medium Radio faszinierte Otlet - ermöglichte es doch, Informationen kabellos über weite Strecken zu versenden und dabei beliebig viele Empfänger zu erreichen. Für ihn ein kleiner Schritt zu seinem Traum, den er 1934 formulierte: einem "universellen Netzwerk, das die Verbreitung von Wissen ohne Beschränkung erlaubt." Jeder Mensch würde "im Sessel" auf den aktuellen Stand des Weltwissens zugreifen können, "applaudieren, Ovationen geben und im Chor singen." Alle weltweiten Entwicklungen würden aufgezeichnet werden, sobald sie entstünden: "So entsteht ein bewegliches Bild der Welt - ihr Gedächtnis, ihr wahres Duplikat." Ein "mechanisches, kollektives Gehirn".
    Der Traum vom dynamischen, ständig wachsenden Wissensnetz Auch, weil Otlet bereits darüber nachdachte, wie in seinem vernetzten Wissenskatalog Anmerkungen einfließen könnten, die Fehler korrigieren oder Widerspruch abbilden. Vor dieser Analogie warnt jedoch Charles van den Heuvel von der Königlichen Niederländischen Akademie der Künste und Wissenschaften: Seiner Interpretation zufolge schwebte Otlet ein System vor, in dem Wissen hierarchisch geordnet ist: Nur eine kleine Gruppe von Wissenschaftlern sollte an der Einordnung von Wissen arbeiten; Bearbeitungen und Anmerkungen sollten, anders etwa als bei der Wikipedia, nicht mit der Information verschmelzen, sondern sie lediglich ergänzen. Das Netz, das Otlet sich ausmalte, ging weit über das World Wide Web mit seiner Hypertext-Struktur hinaus. Otlet wollte nicht nur Informationen miteinander verbunden werden - die Links sollten noch zusätzlich mit Bedeutung aufgeladen werden. Viele Experten sind sich einig, dass diese Idee von Otlet viele Parallelen zu dem Konzept des "semantischen Netz" aufweist. Dessen Ziel ist es, die Bedeutung von Informationen für Rechner verwertbar zu machen - so dass Informationen von ihnen interpretiert werden und maschinell weiterverarbeitet werden können. Projekte, die sich an einer Verwirklichung des semantischen Netzes versuchen, könnten von einem Blick auf Otlets Konzepte profitieren, so van den Heuvel, von dessen Überlegungen zu Hierarchie und Zentralisierung in dieser Frage. Im Mundaneum in Mons arbeitet man derzeit daran, Otlets Arbeiten zu digitalisieren, um sie ins Netz zu stellen. Das dürfte zwar noch ziemlich lange dauern, warnt Archivar Gillen. Aber wenn es soweit ist, wird sich endlich Otlets Vision erfüllen: Seine Sammlung des Wissens wird der Welt zugänglich sein. Papierlos, für jeden abrufbar."
    Date
    24.10.2008 14:19:22
    Footnote
    Vgl. unter: http://www.spiegel.de/netzwelt/web/0,1518,768312,00.html.
  19. Barrierefreies E-Government : Leitfaden für Entscheidungsträger, Grafiker und Programmierer (2005) 0.03
    0.025810063 = product of:
      0.10324025 = sum of:
        0.10324025 = sum of:
          0.017449262 = weight(_text_:web in 4881) [ClassicSimilarity], result of:
            0.017449262 = score(doc=4881,freq=2.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.14422815 = fieldWeight in 4881, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=4881)
          0.08579099 = weight(_text_:seiten in 4881) [ClassicSimilarity], result of:
            0.08579099 = score(doc=4881,freq=6.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.42088422 = fieldWeight in 4881, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03125 = fieldNorm(doc=4881)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2005) H.8, S.459 (W. Schweibenz): "Der Leitfaden ist Teil des Handbuchs für sicheres E-Govemment, das vom Bundesamt für Sicherheit in der Informationstechnik herausgegeben wird und als Nachschlagewerk und zentrale Informationsbörse mit Empfehlungscharakter konzipiert ist. Die Publikation stellt in sechs Abschnitten alle wichtigen Aspekte für ein barrierefreies EGovernment dar, die inhaltlich auch auf private Web-Angebote übertragen werden können. Ein besonderes Anliegen des Leitfadens ist es, den Entscheidungsträgern die Notwendigkeit eines barrierefreien Internets zu erklären. Dies geschieht im ersten Abschnitt, in dem ausgehend von der mangelhafte Benutzungsfreundlichkeit des Internets im Allgemeinen die Bedürfnisse behinderter Menschen im Besonderen beschrieben werden. In anschaulicher Weise mit Beispielen und Bildern werden die Probleme folgender Benutzergruppen dargestellt: - sehbehinderte und blinde Menschen, - hörgeschädigte und gehörlose Menschen, - kognitiv eingeschränkte und konzentrationsschwache Menschen, - Menschen mit Epilepsie, - manuell-motorisch eingeschränkte Menschen. Dies kann Lesern helfen, sich die Probleme von Menschen mit Behinderungen zu vergegenwärtigen, bevor sie im zweiten Abschnitt auf zehn Seiten mit dem deutschen Gesetze und Richtlinien konfrontiert werden. Der Abschnitt 3 Anleitung zur Gestaltung barrierefreier Internet-Seiten gibt Programmierern und Designem konkrete Hinweise welche Techniken in HTML und CSS wie eingesetzt werden müssen, um Barrierefreiheit zu erreichen. Dies reicht von Fragen der Wahmehmbarkeit (Textäquivalente für Audio- und visuelle Inhalte, Schrift und Farbe) über generelle Aspekte der Bedienbarkeit (Orientierung und Navigation, Frames, eingebettete Benutzerschnittstellen, Formulare) und der allgemeinen Verständlichkeit (Sprache, Abkürzungen, Akronyme) bis zur Einhaltung von Standards (W3C unterstützte Formate, Einhaltung von Markup-Standards, Rückwärtskompatibilität, Geräteunabhängigkeit, Kompatibilität mit assistiven Technologien). Im Abschnitt 4 wird die Kommunikation im Internet betrachtet, wobei vor allem auf Fragen des E-Mail-Verkehrs und der Sicherheit eingegangen wird, Aspekte die für alle Internet-Benutzer interessant sind. Im Abschnitt 5 wird dargestellt, wie Internet-Seiten auf Barrierefreiheit geprüft werden können. Neben Testmethoden technischer Art (Evaluierung durch verschiedene Browser und Prüfprogramme) und mit behinderten Benutzern wird auch auf die Frage der Oualitätssiegel für Barrierefreiheit eingegangen und existierende Testsymbole werden vorgestellt. Ein sechster Abschnitt mit Links und Literatur rundet den Leitfaden ab und verweist interessierte Leser weiter."
  20. Herzer, M.: Kurze Geschichte der Numa-Forschung (2016) 0.02
    0.024424162 = product of:
      0.048848324 = sum of:
        0.043780033 = product of:
          0.087560065 = sum of:
            0.087560065 = weight(_text_:seiten in 3066) [ClassicSimilarity], result of:
              0.087560065 = score(doc=3066,freq=4.0), product of:
                0.20383513 = queryWeight, product of:
                  5.4984083 = idf(docFreq=491, maxDocs=44218)
                  0.03707166 = queryNorm
                0.42956316 = fieldWeight in 3066, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4984083 = idf(docFreq=491, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3066)
          0.5 = coord(1/2)
        0.005068291 = product of:
          0.025341455 = sum of:
            0.025341455 = weight(_text_:29 in 3066) [ClassicSimilarity], result of:
              0.025341455 = score(doc=3066,freq=2.0), product of:
                0.13040651 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03707166 = queryNorm
                0.19432661 = fieldWeight in 3066, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3066)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Abstract
    Numa Praetorius war das Pseudonym des Straßburger Juristen und Schriftstellers Eugen Wilhelm (1866-1951). Er benutzte es in den Jahren 1899 bis 1932 für seine Beiträge zu deutschen, französischen und italienischen Zeitschriften, Jahrbüchern und Serien, in denen er sich fast stets zu homosexuellen Themen äußerte. Am Anfang der 1970er Jahre entstand in der BRD und in Westberlin eine Emanzipationsbewegung der Schwulen, bald auch der Lesben, die aus der studentischen Protestbewegung gegen den Vietnamkrieg hervorgegangen war. Schon früh entdeckte sie ihr Interesse an der Geschichte der Schwulenverfolgung und -emanzipation, fand in Bibliotheken und Archiven die Bände des Jahrbuchs für sexuelle Zwischenstufen als beste Quelle zum Einstieg in die Thematik, und darin die "Bibliographie der Homosexualität", die ein "Dr. jur. Numa Praetorius" beinahe in jedem Jahrgang geschrieben hatte. Diese Bibliographie war eigentlich keine. Es handelt sich vielmehr um eine Sammlung manchmal sehr umfangreicher kritischer Referate zu Büchern und Zeitschriftenaufsätzen zur Homosexualität. Im Fall des Buches Homosexualität und Strafgesetz, das ein Rostocker Juraprofessor Wachenfeld als Warnung vor der Schwulenemanzipation verfasst hatte, füllte die Besprechung mehr als hundert Seiten im Jahrbuch von 1902. Das war Numas Rekord, dabei war Wachenfelds Buch nicht viel dicker (150 Seiten).
    Source
    LIBREAS: Library ideas. no.29, 2016 [urn:nbn:de:kobv:11-100238171]

Years

Languages

  • e 472
  • d 297
  • a 5
  • i 3
  • el 2
  • f 2
  • nl 1
  • More… Less…

Types

  • a 352
  • i 38
  • r 16
  • m 14
  • n 13
  • x 11
  • s 10
  • b 4
  • p 4
  • More… Less…

Themes