Search (680 results, page 1 of 34)

  • × language_ss:"d"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.45
    0.4521981 = product of:
      0.7913466 = sum of:
        0.07913466 = product of:
          0.23740397 = sum of:
            0.23740397 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.23740397 = score(doc=140,freq=2.0), product of:
                0.31681007 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.037368443 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.23740397 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.23740397 = score(doc=140,freq=2.0), product of:
            0.31681007 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.037368443 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.23740397 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.23740397 = score(doc=140,freq=2.0), product of:
            0.31681007 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.037368443 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.23740397 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.23740397 = score(doc=140,freq=2.0), product of:
            0.31681007 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.037368443 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.5714286 = coord(4/7)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  2. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.28
    0.28262377 = product of:
      0.4945916 = sum of:
        0.04945916 = product of:
          0.14837748 = sum of:
            0.14837748 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.14837748 = score(doc=5895,freq=2.0), product of:
                0.31681007 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.037368443 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.14837748 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.14837748 = score(doc=5895,freq=2.0), product of:
            0.31681007 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.037368443 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.14837748 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.14837748 = score(doc=5895,freq=2.0), product of:
            0.31681007 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.037368443 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.14837748 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.14837748 = score(doc=5895,freq=2.0), product of:
            0.31681007 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.037368443 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.5714286 = coord(4/7)
    
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  3. Aalberg, T.; Haugen, F.B.; Husby, O.: ¬A Tool for Converting from MARC to FRBR (2006) 0.04
    0.043379623 = product of:
      0.15182868 = sum of:
        0.1341085 = weight(_text_:interpretation in 2425) [ClassicSimilarity], result of:
          0.1341085 = score(doc=2425,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.6265196 = fieldWeight in 2425, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2425)
        0.017720178 = product of:
          0.035440356 = sum of:
            0.035440356 = weight(_text_:22 in 2425) [ClassicSimilarity], result of:
              0.035440356 = score(doc=2425,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.2708308 = fieldWeight in 2425, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2425)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    The FRBR model is by many considered to be an important contribution to the next generation of bibliographic catalogues, but a major challenge for the library community is how to use this model on already existing MARC-based bibliographic catalogues. This problem requires a solution for the interpretation and conversion of MARC records, and a tool for this kind of conversion is developed as a part of the Norwegian BIBSYS FRBR project. The tool is based on a systematic approach to the interpretation and conversion process and is designed to be adaptable to the rules applied in different catalogues.
    Source
    Research and advanced technology for digital libraries : 10th European conference, proceedings / ECDL 2006, Alicante, Spain, September 17 - 22, 2006
  4. ¬Der große, exklusive TOMORROW-Text : Die beste Suchmaschine der Welt ... und der beste Web-Katalog ... und der beste Metasucher (2000) 0.04
    0.03570112 = product of:
      0.24990782 = sum of:
        0.24990782 = weight(_text_:quantenphysik in 1522) [ClassicSimilarity], result of:
          0.24990782 = score(doc=1522,freq=2.0), product of:
            0.34748885 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.037368443 = queryNorm
            0.71918225 = fieldWeight in 1522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1522)
      0.14285715 = coord(1/7)
    
    Content
    Darunter Einzel-Beiträge zu: Acoon, Yahoo, MetaGer; Interviews mit den Suchmaschinen-Bossen zu: Wer ist der Lieblingskonkurrent?; So arbeitet eine Suchmaschine; KARZAUNINKAT, S.: So einfach finden sie, was Sie gerade wollen; 20 Fragen: Welcher Suchmaschinen-Typ sind Sie?; KARZAUNINKAT, S.: Kontrolle ist der beste Schutz; BETZ, S.: Darum suchen Sie kostenlos; GLASER, S.: Zwischen Quatsch und Quantenphysik; Suchmaschinen für Spezialfragen
  5. Weizenbaum, J.: Wir gegen die Gier (2008) 0.03
    0.02905614 = product of:
      0.101696484 = sum of:
        0.05747507 = weight(_text_:interpretation in 6983) [ClassicSimilarity], result of:
          0.05747507 = score(doc=6983,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.2685084 = fieldWeight in 6983, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6983)
        0.044221412 = sum of:
          0.029032689 = weight(_text_:anwendung in 6983) [ClassicSimilarity], result of:
            0.029032689 = score(doc=6983,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.16047385 = fieldWeight in 6983, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.0234375 = fieldNorm(doc=6983)
          0.015188723 = weight(_text_:22 in 6983) [ClassicSimilarity], result of:
            0.015188723 = score(doc=6983,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.116070345 = fieldWeight in 6983, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=6983)
      0.2857143 = coord(2/7)
    
    Content
    Als Beispiel der Anwendung von Metaphern in den Naturwissenschaften fällt mir dieses ein: Ein schwarzes Loch ist ein Stern, dessen Anziehungskraft so stark ist, dass keine Information entfliehen kann. Aber buchstäblich ist so ein Stern nicht "schwarz", noch ist er ein "Loch". Und Information, also elektromagnetische Teilchen, "entfliehen" den ordinären Sternen nicht. Mein Kollege Norbert Wiener schrieb einmal: "Information ist Information, nicht Materie oder Energie." Sie ist immer eine private Leistung, nämlich die der Interpretation, deren Ergebnis Wissen ist. Information hat, wie, zum Beispiel die Aufführung eines Tanzes, keine Permanenz; sie ist eben weder Materie noch Energie. Das Maß der Wahrheit des produzierten Wissens hängt von der Qualität der angewandten Interpretation ab. Wissen überlebt, nämlich indem es den denkenden Menschen buchstäblich informiert, also den Zustand seines Gehirns ändert. Claude Shannons Informationstheorie lehrt uns, dass die Bedeutung einer Nachricht von der Erwartung des Empfängers abhängt. Sie ist nicht messbar, denn Nachrichten sind pure Signale, die keine inhärente Bedeutung bergen. Enthält das New Yorker Telefonbuch Information? Nein! Es besteht aus Daten, nämlich aus Texten, die, um zu Information und Wissen zu werden, interpretiert werden müssen. Der Leser erwartet, dass gewisse Inhalte Namen, Adressen und Telefonnummern repräsentieren. Enthält dieses Telefonbuch die Information, dass viele Armenier nahe beieinander wohnen?
    Date
    16. 3.2008 12:22:08
  6. Springer, M.: Ist das Gehirn ein Quantencomputer? (2006) 0.03
    0.0252445 = product of:
      0.1767115 = sum of:
        0.1767115 = weight(_text_:quantenphysik in 5313) [ClassicSimilarity], result of:
          0.1767115 = score(doc=5313,freq=4.0), product of:
            0.34748885 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.037368443 = queryNorm
            0.5085386 = fieldWeight in 5313, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5313)
      0.14285715 = coord(1/7)
    
    Content
    "Die unscheinbare graue Grütze im Schädel spiegelt jedem von uns eine private Welt vor, deren sinnlicher Reichtum noch das kühnste Multiversum übertrifft, das ein Kosmologe sich auszudenken vermag. Irgendwie bringt die feuchte, lauwarme Masse es fertig, uns das letztlich unbeschreibliche Erleben von Farben, Tönen und Gerüchen, von Schmerzen und Stimmungen zu bescheren. Nur wie? Das ist die berüchtigte Erklärungslücke der Bewusstseinsforschung. Manche sehen darin ein Scheinproblem, andere ein unlösbares Rätsel, und wieder andere mühen sich um einen Brückenschlag zwischen objektiver Hirntätigkeit und subjektiven »Qualia«. Einige Brückenbauer suchen dabei ihr Heil in der Quantenphysik. In der Tat haben Bewusstseins- und Quantenphänomene auf den ersten Blick etwas Entscheidendes gemeinsam: Beide sind »holistisch«. Qualia werden als Ganzheiten erlebt, nicht als Stückwerk verschiedener Sinnesdaten. Analog lassen sich typische Quantenzustände - anders als klassische Mehrteilchensysteme - nicht als bloße Summe der Zustände der beteiligten Partikel beschreiben, weshalb Physiker sie als nichtlokal, kohärent oder verschränkt bezeichnen. Außerdem sah es zumindest anfangs so aus, als enthalte die Quantentheorie eine subjektive Komponente. Gemäß der Kopenhagener Deutung hat es keinen Sinn, von der Existenz einer Teilcheneigenschaft zu sprechen, bevor sie beobachtet wird. Einige Interpreten gingen sogar so weit, unter Beobachtung nicht die Wechselwirkung zwischen Quantenobjekt und Messgerät zu verstehen, sondern den Eintritt des Messresultats ins Bewusstsein des Beobachters. Diese vagen Analogien nährten die Hoffnung, mit überlagerten Quantenzuständen die Erklärungslücke der Hirnforschung schließen zu können. Prominentester Hoffnungsträger ist dabei der Mathematiker und Gravitationstheoretiker Roger Penrose. Seiner Überzeugung nach wird eine künftigeTheorie der Quantengravitation nicht nur das Messproblem der Quantenmechanik lösen, sondern auch eine Physik des Bewusstseins begründen. So allgemein hat diese Idee einen gewissen Charme. Die Synthese von Quantenphysik und Gravitationstheorie wird derzeit in so abstrakten Gebilden gesucht wie Strings oder Loop-Quanten, und wer wollte ausschließen, dass bei dieser großen Vereinigung auch etwas für die Bewusstseinsforschung abfällt. Doch hat sich Penrose von dem Anästhesisten Stuart Hameroff einreden lassen, in den Mikrotubuli, langen Röhrenmolekülen im Zellskelett, den Sitz des Quantenbewusstseins zu vermuten. Das war ein Fehler. Über die noch nicht existente Quantengravitation lässt sich trefflich spekulieren, und Penrose gilt als Fachmann beim Skizzieren ihrer möglichen Umrisse. In den Niederungen der konkreten Hirnforschung dagegen ist er blutiger Laie. Und so fing er sich denn auch jetzt eine volle Breitseite des Hirnforschers Christof Koch ein, der in einem Beitrag in »Nature« (Bd. 440, S. 611) die Schwachpunkte in den kühnen Gedankenflügen des Mathematikers bloßstellt. Die Effekte der Quantenmechanik machen sich in aller Regel nur im submikroskopischen Bereich bemerkbar. Zudem sind kohärente Mehrteilchenzustände extrem störanfällig, sodass sie sich bisher lediglich mit wenigen Partikeln oder bei extrem tiefen Temperaturen erzeugen ließen. Zellmoleküle haben im Vergleich dazu, so Koch, riesige Ausmaße. Obendrein ist das Gehirn bei seiner Betriebstemperatur-300 Grad über absolut null -für nutzbare Quanteneffekte viel zu heiß. Obwohl ich gelernter Physiker und Penrose als Übersetzer seines Buchs »Computerdenken« durchaus gewogen bin, muss ich mich dieser Argumentation beugen. Die Erklärungslücke wird sich wohl nicht »da unten«, auf der Mikroebene der Quantenwelt, schließen, sondern klafft »hier oben«, auf dem makroskopischen Niveau neuronaler Netze. Wir müssen uns eben damit abfinden, dass unsere elementarsten Erlebnisse Produkt der komplexesten Prozesse überhaupt sind."
  7. Franken, G.: Weglassen öffnet den Weg zur Welt : BuchMalerei und Wortarchitektur von Elisabeth Jansen in Küchenhof-Remise (2004) 0.02
    0.022969227 = product of:
      0.08039229 = sum of:
        0.067735024 = weight(_text_:interpretation in 1820) [ClassicSimilarity], result of:
          0.067735024 = score(doc=1820,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.3164402 = fieldWeight in 1820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1820)
        0.01265727 = product of:
          0.02531454 = sum of:
            0.02531454 = weight(_text_:22 in 1820) [ClassicSimilarity], result of:
              0.02531454 = score(doc=1820,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.19345059 = fieldWeight in 1820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1820)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Content
    "Die Welt des Informationszeitalters dringt auf den Menschen immer heftiger und geballter ein - und zugleich immer verschlüsselter, codierter, gefiltert und vermittelt als Medienbotschaft. Die Auseinandersetzung mit diesen Zeichen, ob in visualisierender Form oder textlich gefasst, hat die Hebborner Künstlerin Elisabeth Jansen seit Jahren in den Mittelpunkt ihrer meist kleinformatigen Arbeiten gestellt: Dem Informationsüberfluss, der sich in seiner lautstarken Überlagerung zum Informationsrauschen entwickelt, begegnet sie mit einem energischen und impulgesteuerten Auswahl- und Reduzierungsschritt, wobei Collage und farbliche Abdeckung die bevorzugten Instrumente der Datenzähmung darstellen. In der Remise des Altenberger Küchenhofes sind Ergebnisse ihrer enorm fruchtbaren Produktion aus den letzten Jahren unter dem Titel "BuchMalerei und Wortarchitektur" bis zum 13. Juni zu besichtigen. Ausgangspunkt ihrer Werke ist oft ein irgendwie gestaltetes Papier: ein Kalenderblatt, ein Prospekt, eine Kunstpost karte, die unter dem Lackstift ihre Physiognomie verliert. Die Konturen der Auslassungen, die dem Untergrund erlauben, noch partiell in Erscheinung zu treten, zwingen dem Träger eine völlig neue Interpretation auf. Es bilden sich Umrisse und Gestalten von fragmentarisierter, torsohafter Form, die nur in Ausnahmefällen vorgefundene Elemente als formalisierte Struktur aufgreifen und einbinden, durch zeichnerische Figuren ergänzt. Welt erhält neue Bedeutung, wird auf dem Papier - eigentlich im Kopf - neu konstruiert. Besondere Dichte erhält diese Neuformulierung in den Künstlerbüchern; in denen Elisabeth Jansen über einen längeren Zeitraum tagebuchoder albumartig einen solchen Transformationsprozess fortführt. Diese annalistisch fortlaufenden Kommentare finden ihre Zuspitzung in den Wortarchitekturen", in denen einzelne Worte oder Zeilenbruchstücke aus der Tageslektüre ausgewählt und zu neuen Textkörpern addiert werden: Welt wird zu einem Kaleidoskop von Eindrücken, die sich zufälligen Standpunkten verdanken. Was bleibt, entscheidet das Subjekt selbst."
    Date
    3. 5.1997 8:44:22
  8. Ohly, H.P.: Erstellung und Interpretation von semantischen Karten am Beispiel des Themas 'Soziologische Beratung' (2004) 0.02
    0.019158358 = product of:
      0.1341085 = sum of:
        0.1341085 = weight(_text_:interpretation in 3176) [ClassicSimilarity], result of:
          0.1341085 = score(doc=3176,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.6265196 = fieldWeight in 3176, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3176)
      0.14285715 = coord(1/7)
    
    Abstract
    Bei der Analyse von Informationsströmen und -systemen mit statistischen Methoden werden die Ergebnisse gerne in Grafiken dargestellt, da diese intuitiv schneller zu erfassen sind und auch Laien ohne tiefere statistische Vorbildung eine Anschauung bekommen können. Klassisches Beispiel ist etwa die graphische Darstellung der Verluste des napoleonischen Heeres in Russland (Abb. 1). Unbeachtet bleibt dabei oft, dass trotz Einfachheit der Darstellung meist große Mengen von Daten herangezogen werden und diese dann lediglich nach wenigen Gesichtspunkten in eine Grafik projiziert werdens, was leicht auch zu Fehleinschätzungen führen kann. Es sind darum geeignete Verfahren auszuwählen, die eine adäquate und möglichst 'objektive' Interpretation ermöglichen.
  9. Jele, H.: Erkennung bibliographischer Dubletten mittels Trigrammen : Messungen zur Performanz (2009) 0.02
    0.016846253 = product of:
      0.11792377 = sum of:
        0.11792377 = sum of:
          0.0774205 = weight(_text_:anwendung in 2562) [ClassicSimilarity], result of:
            0.0774205 = score(doc=2562,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.42793027 = fieldWeight in 2562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.0625 = fieldNorm(doc=2562)
          0.040503263 = weight(_text_:22 in 2562) [ClassicSimilarity], result of:
            0.040503263 = score(doc=2562,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.30952093 = fieldWeight in 2562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=2562)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Bildung von Trigrammen wird in der automatisierten Dublettenerkennung häufig in Situationen angewandt, in denen "sehr ähnliche" aber nicht idente Datensätze als Duplikate identifiziert werden sollen. In dieser Arbeit werden drei auf Trigrammen beruhende Erkennungsverfahren (das Jaccard-Maß, der euklidische Abstand sowie der Ähnlichkeitswert des KOBV) praktisch angewandt, sämtliche dabei notwendigen Schritte umgesetzt und schließlich der Verbrauch an Zeit und Ressourcen (=die "Performanz") gemessen. Die hier zur Anwendung gelangte Datenmenge umfasst 392.616 bibliographische Titeldatensätze, die im Österreichischen Bibliothekenverbund erbracht wurden.
    Date
    21. 6.2010 19:30:22
  10. Parschik, T.: Durchführung von Digitalisierungsprojekten in Bibliotheken (2006) 0.02
    0.015759248 = product of:
      0.055157363 = sum of:
        0.040641017 = weight(_text_:interpretation in 149) [ClassicSimilarity], result of:
          0.040641017 = score(doc=149,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.18986413 = fieldWeight in 149, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=149)
        0.014516344 = product of:
          0.029032689 = sum of:
            0.029032689 = weight(_text_:anwendung in 149) [ClassicSimilarity], result of:
              0.029032689 = score(doc=149,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.16047385 = fieldWeight in 149, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=149)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Content
    Darin: "6. Erschließung der Digitalisate Die Digitalisate sollten formal und inhaltlich erschlossen werden. Die formale Erschließung erfolgt i.d.R. nach den RAK-WB, v.a. wenn die Digitalisate im Bibliothekskatalog recherchierbar sein sollen. Die inhaltliche Erschließung trägt zur Schaffung eines Mehrwertes bei. Schon eine einfache inhaltliche Erschließung durch Vergabe von Suchkriterien erleichtert den Überblick über die Bestände zu einem bestimmten Thema. Eine sehr tiefgehende Form der Erschließung ist der Einsatz automatischer Texterkennung, der es möglich macht, mittels Volltextsuche große Bestandsmengen innerhalb von Sekunden auch nach nicht indexierten Begriffen zu durchsuchen. Der Mehrwert wächst mit dem Grad der Erschließung.` Man unterscheidet Digitalisate mit kodierten Informationen (Coded Information, CI) und Digitalisate mit nicht kodierten Informationen (Non Coded Information, NCI). Bei kodierten Digitalisaten ist jedes Schriftzeichen mit einem Code abgespeichert, der dem PC eine Interpretation ermöglicht. Speicherung im Volltext ermöglicht eine Volltextsuche. Für Text- und Metadaten haben sich XML-basierte Datenformate durchgesetzt, wobei von der DFG die Ausprägung METS (Metadata Encoding and Transmission Standard) empfohlen wird. Nicht kodierte Bild-Informationen können zum Beispiel in TIFF, JPG oder PDF vorliegen. Solche Digitalisate können vom PC nicht interpretiert werden." (S.1435)
    6.4 Linguistische Indexierungsverfahren Linguistische Verfahren können Flexionsformen erkennen (Maskulinum, Femininum, Neutrum, Singular, Plural). Eine Rechtschreibprüfung ermöglicht das Auffinden eines Begriffs auch bei falscher oder abweichender Schreibung bei der Recherche oder im digitalen Dokument. Man unterscheidet folgende Fehlerarten: - die Auslassung eines Zeichens, das in den Begriff gehört - die Einfügung eines Zeichens, das nicht in den Begriff gehört - die Substitution, also die Ersetzung eines Zeichens, das in den Begriff gehört, durch ein anderes Zeichen, das nicht in den Begriff gehört - die Vertauschung von Zeichen in ihrer Reihenfolge. Bei der syntaktischen Analyse werden Begriffe auf ihre Grundformen reduziert. Für jeden Begriff muss festgelegt werden, wie weit er reduziert werden soll. Wird der Stamm zu weit belassen, können bei der Recherche viele irrelevante Treffer angezeigt werden (Overstemming). Wird der Stamm zu knapp bemessen, werden evtl. relevante Dokumente nicht gefunden (Understemming). Zudem dient die syntaktische Analyse der Erkennung von Homographen, indem sie Mehrwortgruppen erkennt. Vor der Anwendung eines syntaktischen Verfahrens muss ein Wörterbuch erarbeitet werden. Informationslinguistische Indexsysteme werden in regelbasierte und wörterbuchbasierte Verfahren eingeteilt. Bei ersteren muss ein Regelwerk erstellt werden. Alle in den digitalisierten Dokumenten auftretenden Wörter werden gemäß diesem Regelwerk analysiert und bearbeitet. Dieses Verfahren ist fehlerbehaftet. Das regelbasierte Verfahren ist mit einem verhältnismäßig geringen Aufwand verbunden, da hierbei nicht jeder relevante Begriff einzeln bearbeitet wird. Wörterbuchbasierte Verfahren sind sehr zuverlässig. Sprachliche Unregelmäßigkeiten werden ausgeglichen. Die Erarbeitung von Wörterbüchern ist extrem arbeits-, zeit- und kostenaufwendig. Außerdem orientiert sich ein Wörterbuch zumeist an aktuellen sprachlichen und orthografischen Regelungen und erkennt alte Formen nicht. Morphologische Verfahren basieren auf den Gesetzmäßigkeiten von Wortstrukturen und der Bildung von Wortklassen. Man unterscheidet Flexionsmorphologie und Derivationsmorphologie. Bei der Flexionsmorphologie werden Wörter umgewandelt, um grammatikalische Kontraste innerhalb von Satzkonstruktionen auszudrücken. Die Derivationsmorphologie befasst sich mit Grundprinzipien der Konstruktion neuer Wörter." (S.1439)
  11. Münch, V.: Bald soll das Web vernünftig antworten können (2002) 0.02
    0.0154822925 = product of:
      0.10837604 = sum of:
        0.10837604 = weight(_text_:interpretation in 2553) [ClassicSimilarity], result of:
          0.10837604 = score(doc=2553,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.5063043 = fieldWeight in 2553, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0625 = fieldNorm(doc=2553)
      0.14285715 = coord(1/7)
    
    Abstract
    Über hundert Teilnehmerinnen und Teilnehmer informierten sich beim 9. AIKSymposium "Semantic Web" Mitte April über laufende Forschungs- und Entwicklungsarbeiten zur maschinellen Interpretation von Web-Inhalten. Die Informatik-Forschung will mit diesem Ansatz die Informationsbeschaffung aus dem World Wide Web automatisieren.
  12. Schmidt, R.: Wege des Knowledge Managements : Themen und Vorträge der Online-Tagung 2000 (2000) 0.01
    0.014740471 = product of:
      0.10318329 = sum of:
        0.10318329 = sum of:
          0.06774294 = weight(_text_:anwendung in 4724) [ClassicSimilarity], result of:
            0.06774294 = score(doc=4724,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.37443897 = fieldWeight in 4724, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4724)
          0.035440356 = weight(_text_:22 in 4724) [ClassicSimilarity], result of:
            0.035440356 = score(doc=4724,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.2708308 = fieldWeight in 4724, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4724)
      0.14285715 = coord(1/7)
    
    Abstract
    Neue Trends im Knowlegde Management und die sich daruas ergebenden Konsequenzen für die Zukunft der professionellen Informationsarbeit werden in Fachbeiträgen und Diskussionen auf der 22. Online-Tagung der DGI thematisiert. Der Artikel bietet einen Überblick zu Struktur und Zielsetzung des Tagungskonzepts und fasst die Inhalte der Vorträge zusammen. Dabei reicht das Spektrum der Themen von ersten Erfahrungen mit der praktischen Anwendung von Wissensmanagement über neue Erkenntnisse zur global organisierten Informationsarbeit und zur Reorganisation von Wissensstrukturen im Internet und Intranet bis zu Prognosen und Einschätzungen zu zukünftigen Veränderungen auf dem Arbeitsmarkt für Informationsspezialisten
  13. Kaps, G.; Nohr, H.: Erfolgsmessung im Wissensmanagement mit Balanced Scorecards : Teil 1 (2001) 0.01
    0.014740471 = product of:
      0.10318329 = sum of:
        0.10318329 = sum of:
          0.06774294 = weight(_text_:anwendung in 5675) [ClassicSimilarity], result of:
            0.06774294 = score(doc=5675,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.37443897 = fieldWeight in 5675, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5675)
          0.035440356 = weight(_text_:22 in 5675) [ClassicSimilarity], result of:
            0.035440356 = score(doc=5675,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.2708308 = fieldWeight in 5675, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5675)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Erfolgsmessung im Wissensmanagement unter Anwendung der Balanced Scorecard. In Teil 1 werden verschiedene Methoden der Erfolgsmessung im Wissensmanagement verglichen, insbesondere wird gezeigt, wie sich die Balanced Scorecard einsetzen und gestalten lässt. In diesem Zusammenhang wird die Darstellung durch die klassischen Perspektiven erläutert und dann ein Ausblick auf Wissensperspektiven gegeben. In Teil 2 wird der Erarbeitungsprozess einer Scorecard erläutert und es werden Messgrößen entwickelt. Außerdem wird der Einfluss der Scorecard auf das organisationale Lernverhalten geschildert. Am Schluss wird Software vorgestellt, die das Konzept der Balanced Scorecard unterstützt
    Date
    22. 3.2001 13:20:44
  14. Poetzsch, E.; Porschien, J.; Quosig, D.: ¬Das Online-Tutorial als Lehr- und Lernmedium : Modell für die methodisch-didaktische Umsetzung eines Lehrbuches in ein Online-Tutorial (2005) 0.01
    0.014740471 = product of:
      0.10318329 = sum of:
        0.10318329 = sum of:
          0.06774294 = weight(_text_:anwendung in 3415) [ClassicSimilarity], result of:
            0.06774294 = score(doc=3415,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.37443897 = fieldWeight in 3415, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3415)
          0.035440356 = weight(_text_:22 in 3415) [ClassicSimilarity], result of:
            0.035440356 = score(doc=3415,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.2708308 = fieldWeight in 3415, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3415)
      0.14285715 = coord(1/7)
    
    Abstract
    In dem Artikel werden Voraussetzungen und methodische Konzepte für die Entwicklung von Online-Tutorials sowie deren praktische Umsetzung beschrieben. Die inhaltliche Basis bilden die Lehrbücher "Information Retrieval" und "Wirtschaftsinformation". Schwerpunkte sind die Auswahl der zur Anwendung kommenden Lehrmethoden, die methodisch-didaktische Aufbereitung der Lehrinhalte sowie die entsprechende gestalterische Realisierung.Die Tutoriallösungen werden an ausgewählten Beispielen demonstriert. Anhand der Beispiele wird verdeutlicht, dass Online-Tutorials als neues Lehrund Lernmedium zum einen den Lehrenden gestatten, Inhalte in erweiterter Form anzubieten und zum anderen den Lernenden umfangreiche Möglichkeiten der Aufnahme und Verarbeitung des Lehrstoffes bieten.
    Date
    22. 5.2005 10:39:09
  15. Bauer, G.: Graphische Darstellung interdisziplinärer Wissensstrukturen (2004) 0.01
    0.01263469 = product of:
      0.088442825 = sum of:
        0.088442825 = sum of:
          0.058065377 = weight(_text_:anwendung in 3158) [ClassicSimilarity], result of:
            0.058065377 = score(doc=3158,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.3209477 = fieldWeight in 3158, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.046875 = fieldNorm(doc=3158)
          0.030377446 = weight(_text_:22 in 3158) [ClassicSimilarity], result of:
            0.030377446 = score(doc=3158,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.23214069 = fieldWeight in 3158, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3158)
      0.14285715 = coord(1/7)
    
    Abstract
    Die moderne Wissenschaftsentwicklung ist durch eine zunehmende interdisziplinäre (multidisziplinäre) Verflechtung unterschiedlicher Wissensgebiete gekennzeichnet. Neue Erkenntnisse werden immer mehr in den Grenzgebieten zwischen den traditionellen Fachdisziplinen gewonnen. Problembearbeiter, Erfinder und dergl. benötigen also in erster Linie Wissen aus diesen Grenzgebieten oder Wissensteile aus u.U. klassifikatorisch sehr entfernt liegenden Gebieten, um spezielle Probleme lösen zu können. Die Arbeit in interdisziplinären Forschungsgruppen wird dadurch erschwert, dass in den verschiedenen Fachdisziplinen unterschiedliche Ordnungssysteme und Fachterminologien existieren. Auch sind die individuell unterschiedlichen Aspekte, unter denen das zu verarbeitende Wissen betrachtet werden kann ein Hindernis für die gegenseitige Verständigung. Die traditionellen Klassifikationen sind nicht geeignet, um dem multidisziplinären Zustand des Wissens gerecht zu werden. Es wird daher vorgeschlagen, eine disziplinunabhängige Ordung anzuwenden, die durch Anwendung des Kategorien prinzips erreicht werden kann. Die Möglichkeiten der graphischen Methode wird an verschiedenen Beispielen erläutert. Es wird darauf hingewiesen, dass in einer Definition des Begriffs "Wissensorgani sation" auch neuere Erkenntnisse der kognitiven Psychologie, der Neurobiologie und der semantischen Informationstheorie Berücksichtigung finden müssen.
    Pages
    S.15-22
  16. Niederée, C.: Metadaten als Bausteine des Semantic Web (2003) 0.01
    0.01161172 = product of:
      0.081282035 = sum of:
        0.081282035 = weight(_text_:interpretation in 1761) [ClassicSimilarity], result of:
          0.081282035 = score(doc=1761,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.37972826 = fieldWeight in 1761, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=1761)
      0.14285715 = coord(1/7)
    
    Abstract
    Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
  17. Peters, I.; Stock, W.G.: Folksonomies in Wissensrepräsentation und Information Retrieval (2008) 0.01
    0.01161172 = product of:
      0.081282035 = sum of:
        0.081282035 = weight(_text_:interpretation in 1597) [ClassicSimilarity], result of:
          0.081282035 = score(doc=1597,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.37972826 = fieldWeight in 1597, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=1597)
      0.14285715 = coord(1/7)
    
    Abstract
    Die populären Web 2.0-Dienste werden von Prosumern - Produzenten und gleichsam Konsumenten - nicht nur dazu genutzt, Inhalte zu produzieren, sondern auch, um sie inhaltlich zu erschließen. Folksonomies erlauben es dem Nutzer, Dokumente mit eigenen Schlagworten, sog. Tags, zu beschreiben, ohne dabei auf gewisse Regeln oder Vorgaben achten zu müssen. Neben einigen Vorteilen zeigen Folksonomies aber auch zahlreiche Schwächen (u. a. einen Mangel an Präzision). Um diesen Nachteilen größtenteils entgegenzuwirken, schlagen wir eine Interpretation der Tags als natürlichsprachige Wörter vor. Dadurch ist es uns möglich, Methoden des Natural Language Processing (NLP) auf die Tags anzuwenden und so linguistische Probleme der Tags zu beseitigen. Darüber hinaus diskutieren wir Ansätze und weitere Vorschläge (Tagverteilungen, Kollaboration und akteurspezifische Aspekte) hinsichtlich eines Relevance Rankings von getaggten Dokumenten. Neben Vorschlägen auf ähnliche Dokumente ("more like this!") erlauben Folksonomies auch Hinweise auf verwandte Nutzer und damit auf Communities ("more like me!").
  18. Panke, S.; Gaiser, B.: "With my head up in the clouds" : Social Tagging aus Nutzersicht (2008) 0.01
    0.01161172 = product of:
      0.081282035 = sum of:
        0.081282035 = weight(_text_:interpretation in 2883) [ClassicSimilarity], result of:
          0.081282035 = score(doc=2883,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.37972826 = fieldWeight in 2883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=2883)
      0.14285715 = coord(1/7)
    
    Abstract
    28 Prozent der amerikanischen Internetnutzer/innen haben es bereits getan: Das freie Verschlagworten von Inhalten aller Art per Social Tagging gehört zu den Anwendungen aus dem Kontext von Web 2.0, die sich zunehmender Beliebtheit erfreuen (Rainie, 2007). Während sich die bisherige Forschung überwiegend inhaltsanalytisch mit dem Phänomen befasst, kommen im vorliegenden Beitrag so genannte "Power User" zu Wort. Um zu einer fundierteren Interpretation der in den Inhaltsanalysen gewonnenen Erkenntnisse beizutragen, wurden Interviews mit Personen durchgeführt, die mehrere Tagging Systeme parallel einsetzen, sich auch mit den technischen Grundlagen auskennen und als "Early Adopter" bereits seit geraumer Zeit aktiv sind. Entsprechend leitet der Beitrag von einer Synopse der aktuellen Literatur in die beschriebene Studie über und schließt mit einem Ausblick auf zukünftige Forschungsvorhaben im Kontext von Social Tagging.
  19. Koutsomitropoulos, D.A.; Solomou, G.D.; Alexopoulos, A.D.; Papatheodorou, T.S.: Semantic metadata interoperability and inference-based querying in digital repositories (2009) 0.01
    0.01161172 = product of:
      0.081282035 = sum of:
        0.081282035 = weight(_text_:interpretation in 3731) [ClassicSimilarity], result of:
          0.081282035 = score(doc=3731,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.37972826 = fieldWeight in 3731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=3731)
      0.14285715 = coord(1/7)
    
    Abstract
    Metadata applications have evolved in time into highly structured "islands of information" about digital resources, often bearing a strong semantic interpretation. Scarcely however are these semantics being communicated in machine readable and understandable ways. At the same time, the process for transforming the implied metadata knowledge into explicit Semantic Web descriptions can be problematic and is not always evident. In this article we take upon the well-established Dublin Core metadata standard as well as other metadata schemata, which often appear in digital repositories set-ups, and suggest a proper Semantic Web OWL ontology. In this process the authors cope with discrepancies and incompatibilities, indicative of such attempts, in novel ways. Moreover, we show the potential and necessity of this approach by demonstrating inferences on the resulting ontology, instantiated with actual metadata records. The authors conclude by presenting a working prototype that provides for inference-based querying on top of digital repositories.
  20. Semar, W.: E-Commerce (2004) 0.01
    0.010528908 = product of:
      0.07370235 = sum of:
        0.07370235 = sum of:
          0.048387814 = weight(_text_:anwendung in 2958) [ClassicSimilarity], result of:
            0.048387814 = score(doc=2958,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.2674564 = fieldWeight in 2958, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2958)
          0.02531454 = weight(_text_:22 in 2958) [ClassicSimilarity], result of:
            0.02531454 = score(doc=2958,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.19345059 = fieldWeight in 2958, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2958)
      0.14285715 = coord(1/7)
    
    Abstract
    Während in den vergangenen Jahren in Praxis und Wissenschaft viel darüber diskutiert wurde, welche Rolle moderne Informations- und Kommunikationssysteme in der Anbieter-Kundenbeziehung einnehmen werden, hat sich mittlerweile das Internet als alternativer Informations-, Präsentationsund Transaktionsweg von Produkten und Dienstleistungen etabliert. Die Voraussage, dass das Internet und der damit verbundene elektronische Handel alle bisherigen ökonomischen Gesetzmäßigkeiten außer Kraft setzen würde, stellte sich zwar als falsch heraus, dennoch ist die Entwicklung keineswegs an einem Endpunkt angelangt. Der elektronische Handel entwickelt sich weiter, allerdings mit einem höheren Bewusstsein für das wirtschaftlich Notwendige. Die Anwendung moderner Informations- und Kommunikationstechnologie (IuK) im Geschäftsbereich mit Kunden wird unter dem Stichwort "Electronic Commerce" oder "ECommerce" diskutiert. In der mittlerweile sehr umfangreichen Literatur zu diesem Thema hat sich noch keine eindeutige Definition für diesen Begriffherauskristallisiert. Clement, Peters und Preiß bezeichnen E-Commerce als "die digitale Anbahnung, Aushandlung und/oder Abwicklung von Transaktionen zwischen Wirtschaftssubjekten", während Picot, Reichwald und Wigand darunter jede Art von wirtschaftlicher Tätigkeit auf der Basis elektronischer Verbindungen" verstehen. Unbestritten ist jedoch, dass es um von E-Commerce sprechen zu können eines elektronischen Marktes und des Handelns auf selbigem bedarf. Wir müssen also zunächst klären, was man unter einem elektronischen Markt versteht und wer mit wem auf ihm Handel treibt.
    Date
    5. 4.2013 10:22:43

Types

Themes