Search (323 results, page 1 of 17)

  • × type_ss:"el"
  • × year_i:[2000 TO 2010}
  1. Pott, O.; Wielage, G.: XML Praxis und Referenz (2000) 0.08
    0.0757748 = product of:
      0.22732438 = sum of:
        0.12871589 = sum of:
          0.0378014 = weight(_text_:web in 6985) [ClassicSimilarity], result of:
            0.0378014 = score(doc=6985,freq=6.0), product of:
              0.121056244 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.037093874 = queryNorm
              0.3122631 = fieldWeight in 6985, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0390625 = fieldNorm(doc=6985)
          0.09091449 = weight(_text_:seite in 6985) [ClassicSimilarity], result of:
            0.09091449 = score(doc=6985,freq=4.0), product of:
              0.20776512 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.037093874 = queryNorm
              0.43758303 = fieldWeight in 6985, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0390625 = fieldNorm(doc=6985)
        0.098608494 = weight(_text_:gestaltung in 6985) [ClassicSimilarity], result of:
          0.098608494 = score(doc=6985,freq=4.0), product of:
            0.21637808 = queryWeight, product of:
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.037093874 = queryNorm
            0.45572314 = fieldWeight in 6985, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6985)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit wohl einem der faszinierendsten und innovativsten Themen der Gegenwart und allernächsten Zukunft des Internet befasst sich dieses Buch: XML. Nie als HTML-Ersatz gedacht, erweitert es das Spektrum möglicher Anwendungen im Internet einerseits und schließt andererseits klaffende Lücken und technische Unzulänglichkeiten. Keine Frage: Wer sich als Web-Administrator, Autor eines privaten oder geschäftlichen Internet-Auftritts, Intranet-Verantwortlicher oder -Anwender mit HTML auseinandergesetzt hat, wird in Zukunft auch um XML nicht umhinkommen. Auch außerhalb der Online-Szene hat sich XML bereits heute als richtungsweisender Standard des Dokumentenmanagements etabliert. Dieses Buch bietet das komplette XML- und XSL-Wissen auf praxisnahem und hohem Niveau. Neben einer fundierten Einführung finden Sie das komplette Know-how, stets belegt und beschrieben durch Praxisanwendungen, das Sie für die Arbeit mit XML benötigen. Mit viel Engagement und Zeitaufwand haben uns Firmen, Freunde, Mitarbeiter und der Markt & Technik-Verlag unterstützt. Unser Dank gilt daher all jenen, die ihren Anteil am Gelingen dieses Buches hatten und noch haben werden. In der zweiten völlig aktualisierten und stark erweiterten Ausgabe dieses Buches konnten wir zahlreiche positive Rückmeldungen von Leserinnen und Lesern berücksichtigen. So greift dieses Buch jetzt auch neueste Entwicklungen aus der XML-Entwicklung auf. Dazu gehören beispielsweise SMIL und WML (WAP) oder die erst im Dezember 1999 veröffentlichte X-HTML Empfehlung.
    RSWK
    World wide web / Seite / Gestaltung (213)
    Subject
    World wide web / Seite / Gestaltung (213)
  2. Barrierefreies E-Government : Leitfaden für Entscheidungsträger, Grafiker und Programmierer (2005) 0.02
    0.02150375 = product of:
      0.06451125 = sum of:
        0.008729858 = product of:
          0.017459717 = sum of:
            0.017459717 = weight(_text_:web in 4881) [ClassicSimilarity], result of:
              0.017459717 = score(doc=4881,freq=2.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.14422815 = fieldWeight in 4881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4881)
          0.5 = coord(1/2)
        0.055781387 = weight(_text_:gestaltung in 4881) [ClassicSimilarity], result of:
          0.055781387 = score(doc=4881,freq=2.0), product of:
            0.21637808 = queryWeight, product of:
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.037093874 = queryNorm
            0.25779593 = fieldWeight in 4881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2005) H.8, S.459 (W. Schweibenz): "Der Leitfaden ist Teil des Handbuchs für sicheres E-Govemment, das vom Bundesamt für Sicherheit in der Informationstechnik herausgegeben wird und als Nachschlagewerk und zentrale Informationsbörse mit Empfehlungscharakter konzipiert ist. Die Publikation stellt in sechs Abschnitten alle wichtigen Aspekte für ein barrierefreies EGovernment dar, die inhaltlich auch auf private Web-Angebote übertragen werden können. Ein besonderes Anliegen des Leitfadens ist es, den Entscheidungsträgern die Notwendigkeit eines barrierefreien Internets zu erklären. Dies geschieht im ersten Abschnitt, in dem ausgehend von der mangelhafte Benutzungsfreundlichkeit des Internets im Allgemeinen die Bedürfnisse behinderter Menschen im Besonderen beschrieben werden. In anschaulicher Weise mit Beispielen und Bildern werden die Probleme folgender Benutzergruppen dargestellt: - sehbehinderte und blinde Menschen, - hörgeschädigte und gehörlose Menschen, - kognitiv eingeschränkte und konzentrationsschwache Menschen, - Menschen mit Epilepsie, - manuell-motorisch eingeschränkte Menschen. Dies kann Lesern helfen, sich die Probleme von Menschen mit Behinderungen zu vergegenwärtigen, bevor sie im zweiten Abschnitt auf zehn Seiten mit dem deutschen Gesetze und Richtlinien konfrontiert werden. Der Abschnitt 3 Anleitung zur Gestaltung barrierefreier Internet-Seiten gibt Programmierern und Designem konkrete Hinweise welche Techniken in HTML und CSS wie eingesetzt werden müssen, um Barrierefreiheit zu erreichen. Dies reicht von Fragen der Wahmehmbarkeit (Textäquivalente für Audio- und visuelle Inhalte, Schrift und Farbe) über generelle Aspekte der Bedienbarkeit (Orientierung und Navigation, Frames, eingebettete Benutzerschnittstellen, Formulare) und der allgemeinen Verständlichkeit (Sprache, Abkürzungen, Akronyme) bis zur Einhaltung von Standards (W3C unterstützte Formate, Einhaltung von Markup-Standards, Rückwärtskompatibilität, Geräteunabhängigkeit, Kompatibilität mit assistiven Technologien). Im Abschnitt 4 wird die Kommunikation im Internet betrachtet, wobei vor allem auf Fragen des E-Mail-Verkehrs und der Sicherheit eingegangen wird, Aspekte die für alle Internet-Benutzer interessant sind. Im Abschnitt 5 wird dargestellt, wie Internet-Seiten auf Barrierefreiheit geprüft werden können. Neben Testmethoden technischer Art (Evaluierung durch verschiedene Browser und Prüfprogramme) und mit behinderten Benutzern wird auch auf die Frage der Oualitätssiegel für Barrierefreiheit eingegangen und existierende Testsymbole werden vorgestellt. Ein sechster Abschnitt mit Links und Literatur rundet den Leitfaden ab und verweist interessierte Leser weiter."
  3. Gödert, W.: Wissensorganisation und Information Retrieval im Wandel : Konzepte für die Ausbildung in Deutschland (2001) 0.02
    0.019721702 = product of:
      0.1183302 = sum of:
        0.1183302 = weight(_text_:gestaltung in 4833) [ClassicSimilarity], result of:
          0.1183302 = score(doc=4833,freq=4.0), product of:
            0.21637808 = queryWeight, product of:
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.037093874 = queryNorm
            0.5468678 = fieldWeight in 4833, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.046875 = fieldNorm(doc=4833)
      0.16666667 = coord(1/6)
    
    Abstract
    Es wird ein Überblick gegeben, wie sich die Veränderungen sich im Bereich der Informationsverarbeitung und -technik auf die Gestaltung von Studienkonzepten im Bereich Wissensorganisation und Information Retrieval in deutschen bibliothekarischen Ausbildungseinrichtungen ausgewirkt haben. Dabei wird unterschieden in Bereiche der Veränderungen und in Bereiche der Stabilität. Die Bereiche der Veränderungen lassen sich den Verfahren und Anwendungen in der Praxis zuordnen. Sie sind zum einen geprägt durch eine integrative Sicht auf Indexierung und Information Retrieval und lassen sich zum anderen durch folgende Trends charakterisieren: - Von Katalogen zu OPACs und WebOPACs - Von der Katalogisierung zum intelligenten Information Retrieval und Suchmaschinen mit benutzerfreundlichen Interaktionsschnittstellen - Vom lokalen Katalog zum kooperativen Erschließen und Retrieval in heterogenen Netzen - Von intellektueller zu automatischer Indexierung - Von Regelwerken zu strukturierten Beschreibungsebenen (z.B. Metadaten) - Von Beschreibung und Bewertung zu Entwicklungen und Produktdesign Die Bereiche der Stabilität lassen sich der Theorie und den Methoden zuordnen und sind durch folgende Themen beschreibbar: - Grundlagen der Wissensorganisation und Informationserschließung (z.B. in Philosophie, Linguistik, Informatik, Kognitionspsychologie) - Grundlagen der Gestaltung von Dokumentationssprachen - Grundlagen des Information Retrieval
  4. Beuth, P.: Voyeure gesucht : Böse Nachbarn (2008) 0.02
    0.019191008 = product of:
      0.11514605 = sum of:
        0.11514605 = sum of:
          0.0130947875 = weight(_text_:web in 2226) [ClassicSimilarity], result of:
            0.0130947875 = score(doc=2226,freq=2.0), product of:
              0.121056244 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.037093874 = queryNorm
              0.108171105 = fieldWeight in 2226, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2226)
          0.10205126 = weight(_text_:seite in 2226) [ClassicSimilarity], result of:
            0.10205126 = score(doc=2226,freq=14.0), product of:
              0.20776512 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.037093874 = queryNorm
              0.49118572 = fieldWeight in 2226, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2226)
      0.16666667 = coord(1/6)
    
    Content
    "Mitten in Frankfurt lebt eine bösartige Friseurin, die geparkte Autos zerkratzt und in die Psychiatrie gehört. Findet jedenfalls ihr Nachbar, der diese Anschuldigungen im Internet für jedermann sichtbar veröffentlicht hat: Auf der viel gescholtenen Seite www.rottenneighbor.com befindet er sich mit solchen Behauptungen in bester Gesellschaft. Vermeintliche Drogendealer, Schlampen, Betrüger - sie alle haben ihre Einträge auf der Karte von Frankfurt erhalten, in einigen Fällen sogar mit exakter Anschrift und vollem Namen. Die Denunzianten selbst bleiben lieber anonym. Der überwiegende Teil der Einträge auf der Website liest sich allerdings eher so: "Im Hauptbahnhof wohnt ein Geist - hat meine Mama mal gesagt." Es mag Menschen geben, die das wahnsinnig witzig finden, jedenfalls zeigt es, wie ernst Rottenneighbor wirklich zu nehmen ist. Zuletzt hatte das Portal aus den USA für Aufsehen gesorgt, weil es für viele deutsche User tagelang nicht oder nur über Umwege zu erreichen war. Zensurverdacht wurde unter Bloggern laut, zumal der Seitenbetreiber im kalifornischen Santa Barbara zunächst nicht auf Anfragen reagierte. Als er es dann tat, erklärte er die Probleme mit dem rasant gestiegenen Interesse aus Deutschland. Die Server hätten die "mehreren hunderttausend Zugriffe am Tag" nicht verkraftet. Tatsächlich kommen derzeit 80 Prozent aller Zugriffe auf die Seite aus Deutschland, befeuert vom reflexhaften Aufschrei von Journalisten und Politikern. In den USA ist das Interesse längst schon wieder gesunken, von einst 300.000 Besuchern im Monat auf zuletzt noch 60.000. Dort schrieben die Medien bereits im Januar, was Kulturpessimisten hierzulande nun nachbeten: Über "erhebliche Eingriffe in die Persönlichkeitsrechte" hatte sich etwa Norbert Schneider, Direktor der Landesmedienanstalt NRW kürzlich erregt und Google aufgefordert, das "Cyber-Mobbing" nicht mit seinen Stadtplänen zu unterstützen.
    Viel Wirbel - dabei ist das Ende der Aufmerksamkeit für die öffentliche Nachbarschaftsschelte bereits abzusehen. Zu sehr ähneln sich die Anfeindungen, zu gering ist der Nutzwert, als dass die Seite lange interessant bleiben könnte. Sobald die Medien und Blogger mit dem Thema durch sind, werden die Abrufe wieder klar sinken. Das Abendland wird nicht untergehen. Das zeigt auch die Geschichte, denn "Anschwärzen 2.0" ist beileibe kein neues Phänomen. Den fragwürdigen Titel eines Pionier-Prangers im Internet darf sogar das deutsche Angebot von rache-ist-suess.de für sich beanspruchen. Die Seite wurde 1999 zum Anlaufpunkt für Teenager, die über Ex-Freunde und zickige Rivalinnen lästern wollten. Im vorigen Jahr wurde die Seite stillgelegt. Zwar sind die Tiraden immer noch zu lesen, aber keiner spricht mehr über das Portal. Über langfristige gesamtgesellschaftliche Schäden ist nichts bekannt. Auch die Seite dontdatehimgirl.com ist so ein Fall: Frauen warnen vor Dates mit Männern, die sie für Fremdgänger, Lügner oder Verlierer halten - oft mit komplettem Namen und sogar Fotos. Auch diese Seite kommt aus den USA, auch hier finden sich Einträge aus Frankfurt, Bonn und Berlin. Wie verdreht oder erlogen die Infos sind, kann niemand prüfen. Aber Webstatistiken zufolge hat das Portal selbst in den USA kaum 90000 Besucher im Monat und dürfte so eher als Frust-Abladestation dienen denn als Warnsystem. Psychologin Katja Schwab, Autorin des "Psychologieblogs" (psychologieblog.de), erklärt die Motive der Denunzianten mit simplen Rachebedürfnissen: "Sie wollen nach einem Konflikt ihr Selbstwertgefühl wiederherstellen. Dafür bedienen sich die Menschen immer der am einfachsten zugänglichen Mittel."Den "Tätern" gebe es ein gutes Gefühl, wenigstens irgendetwas unternommen zu haben, und auch den Lesern der Schmähungen gehe es ums Selbstwertgefühl. "Es ist menschlich, sich nach unten zu vergleichen, um das Selbst zu erhöhen. Wenn wir sehen, dass andere Probleme haben, fühlen wir uns besser."
    Man kann das Schadenfreude nennen - oder auch einfach nur Unterhaltung. Den unbestritten gibt es unter den Web-Denunzianten talentierte Entertainer. Das berühmteste Beispiel ist derzeit die Britin Tricia Walsh. Sie stellte ein Video über ihren Scheidungskrieg auf Youtube, in dem sie peinliche Details über ihren Gatten ausplaudert. Sie verrät aller Welt, dass sie wegen des Bluthochdrucks ihres Mannes keinen Sex mit ihm hatte, er aber Kondome, Viagra und Pornos in einer Schublade hortete. Vier Millionen User haben das Video schon gesehen. Für Psychologin Schwab ein typisches Beispiel für eskalierende Konflikte: "In einem bestimmten Stadium will man dem anderen unbedingt schaden, auch wenn man dabei selbst Schaden nimmt." Genauso kam es: Den Scheidungskrieg verlor Tricia Walsh nicht trotz, sondern wegen des Videos. "Sie hat versucht, das Leben ihres Mannes in eine Seifenoper zu verwandeln, indem sie ein Melodram schrieb und spielte", schimpfte der Richter und bestätigte den klar zu Gunsten des Gatten ausfallenden Ehevertrag als rechtmäßig. Die Schauspielerin und Drehbuchautorin, die nie über Jobs für Mayonnaise-Werbung, billige Horrorfilme und die "Benny Hill Show" hinausgekommen war, flog aus der gemeinsamen Wohnung. Mit Fortsetzungen zum ersten Youtube-Film versucht sie sich nun im Gespräch zu halten - mit abnehmendem Erfolg. Das aktuelle Video, in dem sie ankündigt, die Kondome ihres Ex bei Ebay zu verkaufen, klickten nur noch 70000 Schadenfreudige an. Das Internet vergisst vielleicht nie, aber seine User umso schneller."
  5. Umlauf, K.: Grundkurs Informationsaufbereitung : Vorlesungsskript (2009) 0.02
    0.018944493 = product of:
      0.056833476 = sum of:
        0.045000378 = product of:
          0.090000756 = sum of:
            0.090000756 = weight(_text_:seite in 2776) [ClassicSimilarity], result of:
              0.090000756 = score(doc=2776,freq=2.0), product of:
                0.20776512 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.037093874 = queryNorm
                0.4331851 = fieldWeight in 2776, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2776)
          0.5 = coord(1/2)
        0.011833098 = product of:
          0.035499293 = sum of:
            0.035499293 = weight(_text_:29 in 2776) [ClassicSimilarity], result of:
              0.035499293 = score(doc=2776,freq=2.0), product of:
                0.13048466 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037093874 = queryNorm
                0.27205724 = fieldWeight in 2776, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2776)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Diese Seite ist noch im Aufbau. Die Vorlesung gibt einen Überblick über Informationsprodukte als Ergebnis der Informationsaufbereitung und über Methoden der Informationsaufbereitung. Behandelt werden: Indexierungsmethoden, Metadaten und Functional Requirements for bibliographic Records, International Standard Bibliographic Description und Regelwerke für die Formalerschließung, kontrollierte und freie Termini; Metatexte (Inhaltskondensate wie z.B. informatives, indikatives und kritisches Kurzreferat [Abstract], Literaturbericht; feuilletonistische Kritik; wissenschaftliche Rezension; bibliothekarische Begutachtung); Gegenstände, Arten und Formen von Katalogen in Bibliotheken; Klassifikation; Verbale Sacherschließung, Deskriptoren und Thesaurus, Regeln für den Schlagwortkatalog; Reader Interest Classsification, Interessenkreis-Erschließung; Arbeitsorganisation; Katalogbenutzung. Einige Links führen zu lizenzpflichtigen Ressourcen und funktionieren deshalb nur im Campus von deutschen Universitäten oder im Campus der Humboldt-Universität.
    Date
    29. 3.2009 13:20:32
  6. Dextre Clarke, S.G.: Challenges and opportunities for KOS standards (2007) 0.02
    0.018002605 = product of:
      0.054007813 = sum of:
        0.030554507 = product of:
          0.061109014 = sum of:
            0.061109014 = weight(_text_:web in 4643) [ClassicSimilarity], result of:
              0.061109014 = score(doc=4643,freq=2.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.50479853 = fieldWeight in 4643, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4643)
          0.5 = coord(1/2)
        0.023453306 = product of:
          0.070359915 = sum of:
            0.070359915 = weight(_text_:22 in 4643) [ClassicSimilarity], result of:
              0.070359915 = score(doc=4643,freq=2.0), product of:
                0.12989643 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037093874 = queryNorm
                0.5416616 = fieldWeight in 4643, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4643)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    22. 9.2007 15:41:14
    Theme
    Semantic Web
  7. OWL Web Ontology Language Test Cases (2004) 0.02
    0.017481003 = product of:
      0.052443005 = sum of:
        0.039041117 = product of:
          0.07808223 = sum of:
            0.07808223 = weight(_text_:web in 4685) [ClassicSimilarity], result of:
              0.07808223 = score(doc=4685,freq=10.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.6450079 = fieldWeight in 4685, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4685)
          0.5 = coord(1/2)
        0.013401888 = product of:
          0.040205665 = sum of:
            0.040205665 = weight(_text_:22 in 4685) [ClassicSimilarity], result of:
              0.040205665 = score(doc=4685,freq=2.0), product of:
                0.12989643 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037093874 = queryNorm
                0.30952093 = fieldWeight in 4685, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4685)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    This document contains and presents test cases for the Web Ontology Language (OWL) approved by the Web Ontology Working Group. Many of the test cases illustrate the correct usage of the Web Ontology Language (OWL), and the formal meaning of its constructs. Other test cases illustrate the resolution of issues considered by the Working Group. Conformance for OWL documents and OWL document checkers is specified.
    Date
    14. 8.2011 13:33:22
    Theme
    Semantic Web
  8. Panzer, M.: Designing identifiers for the DDC (2007) 0.02
    0.017045714 = product of:
      0.05113714 = sum of:
        0.018518828 = product of:
          0.037037656 = sum of:
            0.037037656 = weight(_text_:web in 1752) [ClassicSimilarity], result of:
              0.037037656 = score(doc=1752,freq=16.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.3059541 = fieldWeight in 1752, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1752)
          0.5 = coord(1/2)
        0.03261831 = product of:
          0.048927464 = sum of:
            0.015213984 = weight(_text_:29 in 1752) [ClassicSimilarity], result of:
              0.015213984 = score(doc=1752,freq=2.0), product of:
                0.13048466 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037093874 = queryNorm
                0.11659596 = fieldWeight in 1752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1752)
            0.03371348 = weight(_text_:22 in 1752) [ClassicSimilarity], result of:
              0.03371348 = score(doc=1752,freq=10.0), product of:
                0.12989643 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037093874 = queryNorm
                0.2595412 = fieldWeight in 1752, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1752)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Content
    "Although the Dewey Decimal Classification is currently available on the web to subscribers as WebDewey and Abridged WebDewey in the OCLC Connexion service and in an XML version to licensees, OCLC does not provide any "web services" based on the DDC. By web services, we mean presentation of the DDC to other machines (not humans) for uses such as searching, browsing, classifying, mapping, harvesting, and alerting. In order to build web-accessible services based on the DDC, several elements have to be considered. One of these elements is the design of an appropriate Uniform Resource Identifier (URI) structure for Dewey. The design goals of mapping the entity model of the DDC into an identifier space can be summarized as follows: * Common locator for Dewey concepts and associated resources for use in web services and web applications * Use-case-driven, but not directly related to and outlasting a specific use case (persistency) * Retraceable path to a concept rather than an abstract identification, reusing a means of identification that is already present in the DDC and available in existing metadata. We have been working closely with our colleagues in the OCLC Office of Research (especially Andy Houghton as well as Eric Childress, Diane Vizine-Goetz, and Stu Weibel) on a preliminary identifier syntax. The basic identifier format we are currently exploring is: http://dewey.info/{aspect}/{object}/{locale}/{type}/{version}/{resource} where * {aspect} is the aspect associated with an {object}-the current value set of aspect contains "concept", "scheme", and "index"; additional ones are under exploration * {object} is a type of {aspect} * {locale} identifies a Dewey translation * {type} identifies a Dewey edition type and contains, at a minimum, the values "edn" for the full edition or "abr" for the abridged edition * {version} identifies a Dewey edition version * {resource} identifies a resource associated with an {object} in the context of {locale}, {type}, and {version}
    Some examples of identifiers for concepts follow: <http://dewey.info/concept/338.4/en/edn/22/> This identifier is used to retrieve or identify the 338.4 concept in the English-language version of Edition 22. <http://dewey.info/concept/338.4/de/edn/22/> This identifier is used to retrieve or identify the 338.4 concept in the German-language version of Edition 22. <http://dewey.info/concept/333.7-333.9/> This identifier is used to retrieve or identify the 333.7-333.9 concept across all editions and language versions. <http://dewey.info/concept/333.7-333.9/about.skos> This identifier is used to retrieve a SKOS representation of the 333.7-333.9 concept (using the "resource" element). There are several open issues at this preliminary stage of development: Use cases: URIs need to represent the range of statements or questions that could be submitted to a Dewey web service. Therefore, it seems that some general questions have to be answered first: What information does an agent have when coming to a Dewey web service? What kind of questions will such an agent ask? Placement of the {locale} component: It is still an open question if the {locale} component should be placed after the {version} component instead (<http://dewey.info/concept/338.4/edn/22/en>) to emphasize that the most important instantiation of a Dewey class is its edition, not its language version. From a services point of view, however, it could make more sense to keep the current arrangement, because users are more likely to come to the service with a present understanding of the language version they are seeking without knowing the specifics of a certain edition in which they are trying to find topics. Identification of other Dewey entities: The goal is to create a locator that does not answer all, but a lot of questions that could be asked about the DDC. Which entities are missing but should be surfaced for services or user agents? How will those services or agents interact with them? Should some entities be rendered in a different way as presented? For example, (how) should the DDC Summaries be retrievable? Would it be necessary to make the DDC Manual accessible through this identifier structure?"
    Date
    21. 3.2008 19:29:28
  9. Schneider, R.: Bibliothek 1.0, 2.0 oder 3.0? (2008) 0.02
    0.01638271 = product of:
      0.049148127 = sum of:
        0.037421476 = product of:
          0.07484295 = sum of:
            0.07484295 = weight(_text_:web in 6122) [ClassicSimilarity], result of:
              0.07484295 = score(doc=6122,freq=12.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.6182494 = fieldWeight in 6122, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6122)
          0.5 = coord(1/2)
        0.011726653 = product of:
          0.035179958 = sum of:
            0.035179958 = weight(_text_:22 in 6122) [ClassicSimilarity], result of:
              0.035179958 = score(doc=6122,freq=2.0), product of:
                0.12989643 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037093874 = queryNorm
                0.2708308 = fieldWeight in 6122, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6122)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Noch ist nicht entschieden mit welcher Vehemenz das sogenannte Web 2.0 die Bibliotheken verändern wird. Allerdings wird hier und da bereits mit Bezugnahme auf das sogenannte Semantic Web von einer dritten und mancherorts von einer vierten Generation des Web gesprochen. Der Vortrag hinterfragt kritisch, welche Konzepte sich hinter diesen Bezeichnungen verbergen und geht der Frage nach, welche Herausforderungen eine Übernahme dieser Konzepte für die Bibliothekswelt mit sich bringen würde. Vgl. insbes. Folie 22 mit einer Darstellung von der Entwicklung vom Web 1.0 zum Web 4.0
    Object
    Web 2.0
  10. Mitchell, J.S.: DDC 22 : an introduction (2003) 0.02
    0.015942298 = product of:
      0.047826894 = sum of:
        0.0216053 = product of:
          0.0432106 = sum of:
            0.0432106 = weight(_text_:web in 1936) [ClassicSimilarity], result of:
              0.0432106 = score(doc=1936,freq=4.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.35694647 = fieldWeight in 1936, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1936)
          0.5 = coord(1/2)
        0.026221594 = product of:
          0.07866478 = sum of:
            0.07866478 = weight(_text_:22 in 1936) [ClassicSimilarity], result of:
              0.07866478 = score(doc=1936,freq=10.0), product of:
                0.12989643 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037093874 = queryNorm
                0.6055961 = fieldWeight in 1936, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1936)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Dewey Decimal Classification and Relative Index, Edition 22 (DDC 22) will be issued simultaneously in print and web versions in July 2003. The new edition is the first full print update to the Dewey Decimal Classification system in seven years-it includes several significant updates and many new numbers and topics. DDC 22 also features some fundamental structural changes that have been introduced with the goals of promoting classifier efficiency and improving the DDC for use in a variety of applications in the web environment. Most importantly, the content of the new edition has been shaped by the needs and recommendations of Dewey users around the world. The worldwide user community has an important role in shaping the future of the DDC.
    Object
    DDC-22
  11. Broughton, V.: Automatic metadata generation : Digital resource description without human intervention (2007) 0.02
    0.015430803 = product of:
      0.04629241 = sum of:
        0.026189575 = product of:
          0.05237915 = sum of:
            0.05237915 = weight(_text_:web in 6048) [ClassicSimilarity], result of:
              0.05237915 = score(doc=6048,freq=2.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.43268442 = fieldWeight in 6048, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6048)
          0.5 = coord(1/2)
        0.020102832 = product of:
          0.060308494 = sum of:
            0.060308494 = weight(_text_:22 in 6048) [ClassicSimilarity], result of:
              0.060308494 = score(doc=6048,freq=2.0), product of:
                0.12989643 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037093874 = queryNorm
                0.46428138 = fieldWeight in 6048, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6048)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    22. 9.2007 15:41:14
    Theme
    Semantic Web
  12. Tudhope, D.: Knowledge Organization System Services : brief review of NKOS activities and possibility of KOS registries (2007) 0.02
    0.015430803 = product of:
      0.04629241 = sum of:
        0.026189575 = product of:
          0.05237915 = sum of:
            0.05237915 = weight(_text_:web in 100) [ClassicSimilarity], result of:
              0.05237915 = score(doc=100,freq=2.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.43268442 = fieldWeight in 100, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.09375 = fieldNorm(doc=100)
          0.5 = coord(1/2)
        0.020102832 = product of:
          0.060308494 = sum of:
            0.060308494 = weight(_text_:22 in 100) [ClassicSimilarity], result of:
              0.060308494 = score(doc=100,freq=2.0), product of:
                0.12989643 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037093874 = queryNorm
                0.46428138 = fieldWeight in 100, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=100)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    22. 9.2007 15:41:14
    Theme
    Semantic Web
  13. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.01
    0.014090804 = product of:
      0.08454482 = sum of:
        0.08454482 = sum of:
          0.028871296 = weight(_text_:web in 1163) [ClassicSimilarity], result of:
            0.028871296 = score(doc=1163,freq=14.0), product of:
              0.121056244 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.037093874 = queryNorm
              0.23849489 = fieldWeight in 1163, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1163)
          0.05567353 = weight(_text_:seite in 1163) [ClassicSimilarity], result of:
            0.05567353 = score(doc=1163,freq=6.0), product of:
              0.20776512 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.037093874 = queryNorm
              0.2679638 = fieldWeight in 1163, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1163)
      0.16666667 = coord(1/6)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
    Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
    Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
  14. Wielinga, B.; Wielemaker, J.; Schreiber, G.; Assem, M. van: Methods for porting resources to the Semantic Web (2004) 0.01
    0.014072737 = product of:
      0.04221821 = sum of:
        0.03207555 = product of:
          0.0641511 = sum of:
            0.0641511 = weight(_text_:web in 4640) [ClassicSimilarity], result of:
              0.0641511 = score(doc=4640,freq=12.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.5299281 = fieldWeight in 4640, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4640)
          0.5 = coord(1/2)
        0.010142656 = product of:
          0.030427968 = sum of:
            0.030427968 = weight(_text_:29 in 4640) [ClassicSimilarity], result of:
              0.030427968 = score(doc=4640,freq=2.0), product of:
                0.13048466 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037093874 = queryNorm
                0.23319192 = fieldWeight in 4640, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4640)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Ontologies will play a central role in the development of the Semantic Web. It is unrealistic to assume that such ontologies will be developed from scratch. Rather, we assume that existing resources such as thesauri and lexical data bases will be reused in the development of ontologies for the Semantic Web. In this paper we describe a method for converting existing source material to a representation that is compatible with Semantic Web languages such as RDF(S) and OWL. The method is illustrated with three case studies: converting Wordnet, AAT and MeSH to RDF(S) and OWL.
    Date
    29. 7.2011 14:44:56
    Source
    Proceedings of the First European Semantic Web Symposium (ESWS2004), Eds.: C. Bussler, J. Davies, D. Fensel and R. Studer. 2004. S.299-311
    Theme
    Semantic Web
  15. Gödert, W.: Schnittstelle von Wissen zwischen Institution und Nutzer (2001) 0.01
    0.013945348 = product of:
      0.083672084 = sum of:
        0.083672084 = weight(_text_:gestaltung in 3775) [ClassicSimilarity], result of:
          0.083672084 = score(doc=3775,freq=2.0), product of:
            0.21637808 = queryWeight, product of:
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.037093874 = queryNorm
            0.3866939 = fieldWeight in 3775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.046875 = fieldNorm(doc=3775)
      0.16666667 = coord(1/6)
    
    Abstract
    In dieser Expertise werden ausgehend von Rahmenbedingungen, die sich aus dem Verständnis von Wissen, Information und Lernen sowie der Diskussion um die Entwicklung unserer Gesellschaft zu einer Informations- oder Wissensgesellschaft ergeben, die Eigenschaften von Wissens-Schnittstellen zwischen Institution und Benutzer aufgezeigt. Es werden Möglichkeiten zur Gestaltung diskutiert, die die Retrievalwerkzeuge, Verfahren zur semantischen Navigation und Probleme verteilter Datenbanken betreffen. Anhand der inhaltlichen Komponenten, aus denen eine Schnittstelle aufgebaut sein kann, werden Möglichkeiten zur eigenen Positionierung aufgezeigt. Probleme der technischen Realisierung werden kurz gestreift. Abschließend werden einige Beispiele vorgestellt. Abgerundet wird die Darstellung durch ein Literaturverzeichnis
  16. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.01
    0.013611687 = product of:
      0.08167012 = sum of:
        0.08167012 = sum of:
          0.030241119 = weight(_text_:web in 5938) [ClassicSimilarity], result of:
            0.030241119 = score(doc=5938,freq=6.0), product of:
              0.121056244 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.037093874 = queryNorm
              0.24981049 = fieldWeight in 5938, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=5938)
          0.051429 = weight(_text_:seite in 5938) [ClassicSimilarity], result of:
            0.051429 = score(doc=5938,freq=2.0), product of:
              0.20776512 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.037093874 = queryNorm
              0.24753433 = fieldWeight in 5938, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03125 = fieldNorm(doc=5938)
      0.16666667 = coord(1/6)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
  17. Best Practice Recipes for Publishing RDF Vocabularies (2008) 0.01
    0.012764692 = product of:
      0.038294077 = sum of:
        0.02646098 = product of:
          0.05292196 = sum of:
            0.05292196 = weight(_text_:web in 4471) [ClassicSimilarity], result of:
              0.05292196 = score(doc=4471,freq=6.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.43716836 = fieldWeight in 4471, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4471)
          0.5 = coord(1/2)
        0.011833098 = product of:
          0.035499293 = sum of:
            0.035499293 = weight(_text_:29 in 4471) [ClassicSimilarity], result of:
              0.035499293 = score(doc=4471,freq=2.0), product of:
                0.13048466 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.037093874 = queryNorm
                0.27205724 = fieldWeight in 4471, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4471)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    This document describes best practice recipes for publishing vocabularies or ontologies on the Web (in RDF Schema or OWL). The features of each recipe are described in detail, so that vocabulary designers may choose the recipe best suited to their needs. Each recipe introduces general principles and an example configuration for use with an Apache HTTP server (which may be adapted to other environments). The recipes are all designed to be consistent with the architecture of the Web as currently specified, although the associated example configurations have been kept intentionally simple.
    Date
    14. 8.2011 14:29:06
    Theme
    Semantic Web
  18. Heflin, J.; Hendler, J.: Semantic interoperability on the Web (2000) 0.01
    0.012729211 = product of:
      0.03818763 = sum of:
        0.02646098 = product of:
          0.05292196 = sum of:
            0.05292196 = weight(_text_:web in 759) [ClassicSimilarity], result of:
              0.05292196 = score(doc=759,freq=6.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.43716836 = fieldWeight in 759, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=759)
          0.5 = coord(1/2)
        0.011726653 = product of:
          0.035179958 = sum of:
            0.035179958 = weight(_text_:22 in 759) [ClassicSimilarity], result of:
              0.035179958 = score(doc=759,freq=2.0), product of:
                0.12989643 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037093874 = queryNorm
                0.2708308 = fieldWeight in 759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=759)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    XML will have a profound impact on the way data is exchanged on the Internet. An important feature of this language is the separation of content from presentation, which makes it easier to select and/or reformat the data. However, due to the likelihood of numerous industry and domain specific DTDs, those who wish to integrate information will still be faced with the problem of semantic interoperability. In this paper we discuss why this problem is not solved by XML, and then discuss why the Resource Description Framework is only a partial solution. We then present the SHOE language, which we feel has many of the features necessary to enable a semantic web, and describe an existing set of tools that make it easy to use the language.
    Date
    11. 5.2013 19:22:18
    Theme
    Semantic Web
  19. Wesch, M.: Web 2.0 ... The Machine is Us/ing Us (2006) 0.01
    0.012697886 = product of:
      0.038093656 = sum of:
        0.02469177 = product of:
          0.04938354 = sum of:
            0.04938354 = weight(_text_:web in 3478) [ClassicSimilarity], result of:
              0.04938354 = score(doc=3478,freq=4.0), product of:
                0.121056244 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.037093874 = queryNorm
                0.4079388 = fieldWeight in 3478, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3478)
          0.5 = coord(1/2)
        0.013401888 = product of:
          0.040205665 = sum of:
            0.040205665 = weight(_text_:22 in 3478) [ClassicSimilarity], result of:
              0.040205665 = score(doc=3478,freq=2.0), product of:
                0.12989643 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037093874 = queryNorm
                0.30952093 = fieldWeight in 3478, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3478)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Web 2.0 in just under 5 minutes.
    Date
    5. 1.2008 19:22:48
  20. Heuvelmann, R.: FRBR-Strukturierung von MAB-Daten, oder : Wieviel MAB passt in FRBR? (2005) 0.01
    0.011621123 = product of:
      0.069726735 = sum of:
        0.069726735 = weight(_text_:gestaltung in 466) [ClassicSimilarity], result of:
          0.069726735 = score(doc=466,freq=2.0), product of:
            0.21637808 = queryWeight, product of:
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.037093874 = queryNorm
            0.3222449 = fieldWeight in 466, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8332562 = idf(docFreq=351, maxDocs=44218)
              0.0390625 = fieldNorm(doc=466)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Expertengruppe MAB-Ausschuss (seit 2005: Expertengruppe Datenformate) hat sich im Verlauf des Jahres 2004 mit den FRBR und ihren Bezügen zum MABFormat befasst. Es wurde eine Tabelle FRBR => MAB erstellt (veröffentlicht unter http://www.ddb.de/professionell/pdf/frbr_mab.pdf), wichtige Ergebnisse wurden im Artikel "Maschinelles Austauschformat für Bibliotheken und die Functional Requirements for Bibliographic Records : Oder: Wieviel FRBR verträgt MAB?" im "Bibliotheksdienst" 39 (2005), Heft 10 zusammengefasst. Ergänzend dazu wurde bei der Arbeitsstelle Datenformate Der Deutschen Bibliothek versucht, MAB-Daten zu "frbrisieren", d. h. einzelne MAB-Datensätze in die vier Entitäten der Gruppe 1 (work / expression / manifestation / item) zu differenzieren. Ziel war nicht, einen fertigen OPAC-Baustein für die Indexierung, Benutzerführung oder Präsentation zu erstellen. Ziel war vielmehr, anhand von konkreten, in MAB strukturierten Daten die Schichten sichtbar zu machen. Ausgewählt für diesen Zweck wurde BISMAS, das "Bibliographische Informations-System zur Maschinellen Ausgabe und Suche" des BIS Oldenburg (www.bismas.de). In BISMAS ist es mit relativ geringem Aufwand möglich, die Präsentation eines Satzes - basierend auf der intern vorliegenden Datensatzstruktur, z.B. MAB - frei zu definieren. Die Gestaltung der Indices und der Ausgabeformate erfolgt in BISMAS mit Hilfe der Programmiersprache LM. Die Ergebnisse sollen hier anhand von Beispielen dargestellt werden.

Languages

  • e 237
  • d 77
  • a 4
  • el 2
  • More… Less…

Types

  • a 91
  • i 14
  • n 12
  • r 5
  • x 5
  • m 2
  • p 1
  • s 1
  • More… Less…