Search (1753 results, page 2 of 88)

  • × year_i:[2000 TO 2010}
  1. Procházka, D.: ¬The development of uniform titles for choreographic works (2006) 0.02
    0.021895267 = product of:
      0.15326686 = sum of:
        0.15326686 = weight(_text_:interpretation in 223) [ClassicSimilarity], result of:
          0.15326686 = score(doc=223,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.71602243 = fieldWeight in 223, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0625 = fieldNorm(doc=223)
      0.14285715 = coord(1/7)
    
    Abstract
    In 1994, the Library of Congress issued a rule interpretation to AACR2 detailing how uniform titles for choreographic works should be established. The value of the rule interpretation is discussed, and it is contrasted with prior practices. The origins of the concept behind the rule are traced back to the New York Public Library in the mid twentieth century, and its evolution into the current guidelines is delineated.
  2. Tudhope, D.; Hodge, G.: Terminology registries (2007) 0.02
    0.021057816 = product of:
      0.1474047 = sum of:
        0.1474047 = sum of:
          0.09677563 = weight(_text_:anwendung in 539) [ClassicSimilarity], result of:
            0.09677563 = score(doc=539,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.5349128 = fieldWeight in 539, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.078125 = fieldNorm(doc=539)
          0.05062908 = weight(_text_:22 in 539) [ClassicSimilarity], result of:
            0.05062908 = score(doc=539,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.38690117 = fieldWeight in 539, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=539)
      0.14285715 = coord(1/7)
    
    Date
    26.12.2011 13:22:07
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Rindflesch, T.C.; Fizsman, M.: The interaction of domain knowledge and linguistic structure in natural language processing : interpreting hypernymic propositions in biomedical text (2003) 0.02
    0.019352864 = product of:
      0.13547005 = sum of:
        0.13547005 = weight(_text_:interpretation in 2097) [ClassicSimilarity], result of:
          0.13547005 = score(doc=2097,freq=8.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.6328804 = fieldWeight in 2097, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2097)
      0.14285715 = coord(1/7)
    
    Abstract
    Interpretation of semantic propositions in free-text documents such as MEDLINE citations would provide valuable support for biomedical applications, and several approaches to semantic interpretation are being pursued in the biomedical informatics community. In this paper, we describe a methodology for interpreting linguistic structures that encode hypernymic propositions, in which a more specific concept is in a taxonomic relationship with a more general concept. In order to effectively process these constructions, we exploit underspecified syntactic analysis and structured domain knowledge from the Unified Medical Language System (UMLS). After introducing the syntactic processing on which our system depends, we focus on the UMLS knowledge that supports interpretation of hypernymic propositions. We first use semantic groups from the Semantic Network to ensure that the two concepts involved are compatible; hierarchical information in the Metathesaurus then determines which concept is more general and which more specific. A preliminary evaluation of a sample based on the semantic group Chemicals and Drugs provides 83% precision. An error analysis was conducted and potential solutions to the problems encountered are presented. The research discussed here serves as a paradigm for investigating the interaction between domain knowledge and linguistic structure in natural language processing, and could also make a contribution to research on automatic processing of discourse structure. Additional implications of the system we present include its integration in advanced semantic interpretation processors for biomedical text and its use for information extraction in specific domains. The approach has the potential to support a range of applications, including information retrieval and ontology engineering.
  4. Ohly, H.P.: Erstellung und Interpretation von semantischen Karten am Beispiel des Themas 'Soziologische Beratung' (2004) 0.02
    0.019158358 = product of:
      0.1341085 = sum of:
        0.1341085 = weight(_text_:interpretation in 3176) [ClassicSimilarity], result of:
          0.1341085 = score(doc=3176,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.6265196 = fieldWeight in 3176, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3176)
      0.14285715 = coord(1/7)
    
    Abstract
    Bei der Analyse von Informationsströmen und -systemen mit statistischen Methoden werden die Ergebnisse gerne in Grafiken dargestellt, da diese intuitiv schneller zu erfassen sind und auch Laien ohne tiefere statistische Vorbildung eine Anschauung bekommen können. Klassisches Beispiel ist etwa die graphische Darstellung der Verluste des napoleonischen Heeres in Russland (Abb. 1). Unbeachtet bleibt dabei oft, dass trotz Einfachheit der Darstellung meist große Mengen von Daten herangezogen werden und diese dann lediglich nach wenigen Gesichtspunkten in eine Grafik projiziert werdens, was leicht auch zu Fehleinschätzungen führen kann. Es sind darum geeignete Verfahren auszuwählen, die eine adäquate und möglichst 'objektive' Interpretation ermöglichen.
  5. Bean, C.A.: Representation of medical knowledge for automated semantic interpretation of clinical reports (2004) 0.02
    0.018961856 = product of:
      0.13273299 = sum of:
        0.13273299 = weight(_text_:interpretation in 2660) [ClassicSimilarity], result of:
          0.13273299 = score(doc=2660,freq=12.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.6200936 = fieldWeight in 2660, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=2660)
      0.14285715 = coord(1/7)
    
    Abstract
    A set of cardiac catheterisation case reports was analysed to identify and encode for automated interpretation of the semantic indicators of location and severity of disease in coronary arteries. Presence of disease was indicated by the use of specific or general disease terms, typically with a modifier, while absence of disease was indicated by negation of similar phrases. Disease modifiers indicating severity could be qualitative or quantitative, and a 7-point severity scale was devised to normalise these modifiers based an relative clinical significance. Location of disease was indicated in three basic ways: By situation in arbitrary topographic divisions, by situation relative to a named structure, or by using named structures as boundary delimiters to describe disease extent. In addition, semantic indicators were identified for such topological relationships as proximity, contiguity, overlap, and enclosure. Spatial reasoning was often necessary to understand the specific localisation of disease, demonstrating the need for a general Spatial extension to the underlying knowledge base.
    Content
    1. Introduction In automated semantic interpretation, the expressions in natural language text are mapped to a knowledge model, thus providing a means of normalising the relevant concepts and relationships encountered. However, the ultimate goal of comprehensive and consistent semantic interpretation of unrestrained text, even within a single domain such as medicine, is still beyond the current state of the art of natural language processing. In order to scale back the complexity of the task of automated semantic interpretation, we have restricted our domain of interest to coronary artery anatomy and our text to cardiac catheterisation reports. Using a multi-phased approach, a staged series of projects is enhancing the development of a semantic interpretation system for free clinical text in the specific subdomain of coronary arteriography.
  6. Breidbach, O.: Neue Wissensordnungen : wie aus Informationen und Nachrichten kulturelles Wissen entsteht (2008) 0.02
    0.018591266 = product of:
      0.06506943 = sum of:
        0.05747507 = weight(_text_:interpretation in 3037) [ClassicSimilarity], result of:
          0.05747507 = score(doc=3037,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.2685084 = fieldWeight in 3037, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3037)
        0.0075943614 = product of:
          0.015188723 = sum of:
            0.015188723 = weight(_text_:22 in 3037) [ClassicSimilarity], result of:
              0.015188723 = score(doc=3037,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.116070345 = fieldWeight in 3037, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3037)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Date
    22. 7.2009 13:43:50
    Footnote
    Rez. in: BuB 61(2009) H.4, S.281-282 (J. Eberhardt): "Die Bücher der im letzten Jahr gestarteten »Edition UnseId« sind dünn und preisgünstig, sie zielen damit auf ein größeres Publikum. Anspruchsvoll streben die ersten Bände der Edition danach, den Lesern die Welt zu erklären, oder kantischer noch, die Bedingungen einer solchen Welterklärung zu diskutieren. In diese Kategorie fällt auch der Band von Olaf Breidbach über die »Neuen Wissensordnungen«, der eben nicht bestimmtes Wissen vermitteln möchte, sondern das Wissen für sich als kulturelles und historisches Phänomen in den Blick nimmt. Das lässt eigentlich - für Bibliothekare als Arbeiter an oder in der Wissensordnung zumal - interessante Lektüre erwarten. Doch dürfte es auch außerhalb unseres Berufsstandes nicht allzu viele Leser geben, die Honig aus dem Büchlein saugen können, weil der Jenaer Professor für die Geschichte der Naturwissenschaften mehr Mühe auf die Ausbreitung seines reichen Materials denn auf seine Aufbereitung verwandt hat. Das Buch wird regiert von zwei Grundgedanken, die Breidbach verschiedentlich wiederholt. Der erste steckt auch im Titel: »Information« und »Wissen« sind nicht dasselbe, sondern Wissen entsteht erst aus Information, und zwar durch Interpretation und Reflexion. Wissen ist »interpretierte Information« (Seite 12, 168 und weitere). Der zweite betrifft das Wesen der Interpretation: Eine neue Information kann nur interpretiert werden, indem man sie in Beziehung setzt zu dem, was schon gewusst wird, also indem man sie in das »Netz« seines Wissens einbezieht - und dies führt notwendig dazu, dass das Netz sich verändert. Wissensordnung muss man dynamisch verstehen, nicht statisch! Das Buch versucht zu erklären, was diese beiden Gedanken bedeuten und welche Folgen sie haben dafür, wie Wissensordnung zu modellieren wäre. Dem ersten Gedanken nähert man sich vielleicht am einfachsten über einen Vergleich mit der platonischen Wissensauffassung, die als Diskussionsfolie auch noch die zeitgenössische Erkenntnistheorie regiert. . . .
  7. Favre-Bulle, B.: Information und Zusammenhang : Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation (2001) 0.02
    0.018375382 = product of:
      0.06431384 = sum of:
        0.05418802 = weight(_text_:interpretation in 1783) [ClassicSimilarity], result of:
          0.05418802 = score(doc=1783,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 1783, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=1783)
        0.010125816 = product of:
          0.020251632 = sum of:
            0.020251632 = weight(_text_:22 in 1783) [ClassicSimilarity], result of:
              0.020251632 = score(doc=1783,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.15476047 = fieldWeight in 1783, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1783)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Im Zeitalter der elektronischen Medien ist "Information" zu einem schillernden Schlagwort geworden. Sie legt die Basis für Entscheidungsprozesse und bestimmt unser Denken und Handeln. Doch was ist Information und wie funktioniert sie? Das Buch stellt das Thema erstmals aus der Sicht der Informationstheorie, der Wahrnehmung, des Denkens und der Sprache dar. Auf interdisziplinärer Ebene wird der Informationsbegriff erarbeitet. Wie erlangen Daten Sinn und Bedeutung? Das Werk behandelt die Natur der Informationsflüsse und diskutiert die Rolle des Kontextes. Zahlreiche Beispiele und Abbildungen unterstützen die Erläuterungen. Anhand des Japanischen wird der dramatische Einfluß des sprachlichen Kontextes auf die inhaltliche Interpretation verdeutlicht. Der Leser erhält Einblicke in die Mechanismen der Informationsflüsse und kann damit rascher die richtigen Entscheidungen treffen. Er vermeidet Mißverständnisse, indem er die Rolle des Zusammenhangs in seinen Denkprozessen beachtet.
    Date
    22. 3.2008 14:53:43
  8. Larsen, B.; Ingwersen, P.; Lund, B.: Data fusion according to the principle of polyrepresentation (2009) 0.02
    0.018375382 = product of:
      0.06431384 = sum of:
        0.05418802 = weight(_text_:interpretation in 2752) [ClassicSimilarity], result of:
          0.05418802 = score(doc=2752,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 2752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=2752)
        0.010125816 = product of:
          0.020251632 = sum of:
            0.020251632 = weight(_text_:22 in 2752) [ClassicSimilarity], result of:
              0.020251632 = score(doc=2752,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.15476047 = fieldWeight in 2752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2752)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    We report data fusion experiments carried out on the four best-performing retrieval models from TREC 5. Three were conceptually/algorithmically very different from one another; one was algorithmically similar to one of the former. The objective of the test was to observe the performance of the 11 logical data fusion combinations compared to the performance of the four individual models and their intermediate fusions when following the principle of polyrepresentation. This principle is based on cognitive IR perspective (Ingwersen & Järvelin, 2005) and implies that each retrieval model is regarded as a representation of a unique interpretation of information retrieval (IR). It predicts that only fusions of very different, but equally good, IR models may outperform each constituent as well as their intermediate fusions. Two kinds of experiments were carried out. One tested restricted fusions, which entails that only the inner disjoint overlap documents between fused models are ranked. The second set of experiments was based on traditional data fusion methods. The experiments involved the 30 TREC 5 topics that contain more than 44 relevant documents. In all tests, the Borda and CombSUM scoring methods were used. Performance was measured by precision and recall, with document cutoff values (DCVs) at 100 and 15 documents, respectively. Results show that restricted fusions made of two, three, or four cognitively/algorithmically very different retrieval models perform significantly better than do the individual models at DCV100. At DCV15, however, the results of polyrepresentative fusion were less predictable. The traditional fusion method based on polyrepresentation principles demonstrates a clear picture of performance at both DCV levels and verifies the polyrepresentation predictions for data fusion in IR. Data fusion improves retrieval performance over their constituent IR models only if the models all are quite conceptually/algorithmically dissimilar and equally and well performing, in that order of importance.
    Date
    22. 3.2009 18:48:28
  9. Jele, H.: Erkennung bibliographischer Dubletten mittels Trigrammen : Messungen zur Performanz (2009) 0.02
    0.016846253 = product of:
      0.11792377 = sum of:
        0.11792377 = sum of:
          0.0774205 = weight(_text_:anwendung in 2562) [ClassicSimilarity], result of:
            0.0774205 = score(doc=2562,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.42793027 = fieldWeight in 2562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.0625 = fieldNorm(doc=2562)
          0.040503263 = weight(_text_:22 in 2562) [ClassicSimilarity], result of:
            0.040503263 = score(doc=2562,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.30952093 = fieldWeight in 2562, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=2562)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Bildung von Trigrammen wird in der automatisierten Dublettenerkennung häufig in Situationen angewandt, in denen "sehr ähnliche" aber nicht idente Datensätze als Duplikate identifiziert werden sollen. In dieser Arbeit werden drei auf Trigrammen beruhende Erkennungsverfahren (das Jaccard-Maß, der euklidische Abstand sowie der Ähnlichkeitswert des KOBV) praktisch angewandt, sämtliche dabei notwendigen Schritte umgesetzt und schließlich der Verbrauch an Zeit und Ressourcen (=die "Performanz") gemessen. Die hier zur Anwendung gelangte Datenmenge umfasst 392.616 bibliographische Titeldatensätze, die im Österreichischen Bibliothekenverbund erbracht wurden.
    Date
    21. 6.2010 19:30:22
  10. Hochheiser, H.; Shneiderman, B.: Using interactive visualizations of WWW log data to characterize access patterns and inform site design (2001) 0.02
    0.01642145 = product of:
      0.11495014 = sum of:
        0.11495014 = weight(_text_:interpretation in 5765) [ClassicSimilarity], result of:
          0.11495014 = score(doc=5765,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.5370168 = fieldWeight in 5765, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=5765)
      0.14285715 = coord(1/7)
    
    Abstract
    HTTP server log files provide Web site operators with substantial detail regarding the visitors to their sites. Interest in interpreting this data has spawned an active market for software packages that summarize and analyze this data, providing histograms, pie graphs, and other charts summarizing usage patterns. Although useful, these summaries obscure useful information and restrict users to passive interpretation of static displays. Interactive visualizations can be used to provide users with greater abilities to interpret and explore Web log data. By combining two-dimensional displays of thousands of individual access requests, color, and size coding for additional attributes, and facilities for zooming and filtering, these visualizations provide capabilities for examining data that exceed those of traditional Web log analysis tools. We introduce a series of interactive visualizations that can be used to explore server data across various dimensions. Possible uses of these visualizations are discussed, and difficulties of data collection, presentation, and interpretation are explored
  11. Rafferty, P.; Hidderley, R.: ¬A survey of Image trieval tools (2004) 0.02
    0.01642145 = product of:
      0.11495014 = sum of:
        0.11495014 = weight(_text_:interpretation in 2670) [ClassicSimilarity], result of:
          0.11495014 = score(doc=2670,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.5370168 = fieldWeight in 2670, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=2670)
      0.14285715 = coord(1/7)
    
    Abstract
    Issues regarding interpretation and the locus of meaning in the image sign (objectivist, constructionist or subjectivist) are clearly important in relation to reading images and are well documented in the literature (Svenonius, 1994; Shatford, 1984,1986; Layne, 1994; Enser, 1991, 1995; Rafferty Brown & Hidderley, 1996). The same issues of interpretation and reading pertain to image indexing tools which themselves are the result of choice, design and construction. Indexing becomes constrained and specific when a particular controlled vocabulary is adhered to. Indexing tools can often work better for one type of document than another. In this paper we discuss the different 'flavours' of three image retrieval tools: the Art and Architecture Thesaurus, Iconclass and the Library of Congress Thesaurus for Graphic Materials.
  12. Dominich, S.; Skrop, A.: PageRank and interaction information retrieval (2005) 0.02
    0.01642145 = product of:
      0.11495014 = sum of:
        0.11495014 = weight(_text_:interpretation in 3268) [ClassicSimilarity], result of:
          0.11495014 = score(doc=3268,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.5370168 = fieldWeight in 3268, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=3268)
      0.14285715 = coord(1/7)
    
    Abstract
    The PageRank method is used by the Google Web search engine to compute the importance of Web pages. Two different views have been developed for the Interpretation of the PageRank method and values: (a) stochastic (random surfer): the PageRank values can be conceived as the steady-state distribution of a Markov chain, and (b) algebraic: the PageRank values form the eigenvector corresponding to eigenvalue 1 of the Web link matrix. The Interaction Information Retrieval (1**2 R) method is a nonclassical information retrieval paradigm, which represents a connectionist approach based an dynamic systems. In the present paper, a different Interpretation of PageRank is proposed, namely, a dynamic systems viewpoint, by showing that the PageRank method can be formally interpreted as a particular case of the Interaction Information Retrieval method; and thus, the PageRank values may be interpreted as neutral equilibrium points of the Web.
  13. Thelwall, M.; Vann, K.; Fairclough, R.: Web issue analysis : an integrated water resource management case study (2006) 0.02
    0.01642145 = product of:
      0.11495014 = sum of:
        0.11495014 = weight(_text_:interpretation in 5906) [ClassicSimilarity], result of:
          0.11495014 = score(doc=5906,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.5370168 = fieldWeight in 5906, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=5906)
      0.14285715 = coord(1/7)
    
    Abstract
    In this article Web issue analysis is introduced as a new technique to investigate an issue as reflected on the Web. The issue chosen, integrated water resource management (IWRM), is a United Nations-initiated paradigm for managing water resources in an international context, particularly in developing nations. As with many international governmental initiatives, there is a considerable body of online information about it: 41.381 hypertext markup language (HTML) pages and 28.735 PDF documents mentioning the issue were downloaded. A page uniform resource locator (URL) and link analysis revealed the international and sectoral spread of IWRM. A noun and noun phrase occurrence analysis was used to identify the issues most commonly discussed, revealing some unexpected topics such as private sector and economic growth. Although the complexity of the methods required to produce meaningful statistics from the data is disadvantageous to easy interpretation, it was still possible to produce data that could be subject to a reasonably intuitive interpretation. Hence Web issue analysis is claimed to be a useful new technique for information science.
  14. Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen : Proceedings der 8. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Regensburg, 9.-11. Oktober 2002 (2004) 0.02
    0.015759248 = product of:
      0.055157363 = sum of:
        0.040641017 = weight(_text_:interpretation in 5864) [ClassicSimilarity], result of:
          0.040641017 = score(doc=5864,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.18986413 = fieldWeight in 5864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
        0.014516344 = product of:
          0.029032689 = sum of:
            0.029032689 = weight(_text_:anwendung in 5864) [ClassicSimilarity], result of:
              0.029032689 = score(doc=5864,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.16047385 = fieldWeight in 5864, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5864)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Mit der Entwicklung von Wissen und weltweiter Kommunikation kommt der Wissensorganisation zunehmend eine Schlüsselrolle zu. Einerseits geht es darum, zu verstehen, was Wissen ist und wie es strukturiert ist, andererseits möchte man die Technik der elektronischen Darstellung und Wiederauffindung des Wissens über den gegenwärtigen Stand hinaus weiterentwickeln. Dabei geht es um vielfältige Anwendungen, z. B. Wissensvertextung, Forschungsunterstützung, Bereitstellung von Wissen in Arbeits- und Entscheidungsprozessen, Weiterbildung, Ordnung, Wissenverknüpfung, Innovationsförderung und anderes. Schwerpunkt der Fachtagung Wissensorganisation 2002 sollte darum unter dem Motto "Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen", in Weiterführung ähnlicher Themen von den beiden vorhergehenden Tagungen, Methoden der Wissensorganisation und den Nutzen ihrer Anwendung im Rahmen von eLearning-Aktivitäten beleuchten sowie andererseits eLearning-Methoden für die Wissensorganisation aufgreifen. Didaktische Modelle wie etwa die Lernontologien stehen dabei ebenso zur Debatte wie Anwendungen von Werkzeugen der Wissensmodellierung oder der begrifflichen Wissensstrukturierung. Ziel soll es sein, den Beitrag der Wissensorganisation zur Entwicklung von Arbeitstechniken und neuer Lernkulturen herauszuarbeiten und gleichzeitig auch didaktische Konzepte für die Wissensorganisation fruchtbar zu machen. Folgende Thematiken können die Ausrichtung dieses Vorhabens beispielhaft skizzieren: - Terminologische Kontrolle in Online-Lernumgebungen - Wie zu organisieren ist (zu Verfahren der Wissensanordnung) - Grundlagen für die Gestaltung von Wissensorganisations- und Lernsystem - Der Benutzer als Lerner - der Lerner als Benutzer - Lehrer als Autoren (der Blick auf den Wissensproduzenten) Die Thematisierung praktischer Arbeitsfelder und Werkzeuge, z. B. die Metadatenorganisation mit XML, werden ergänzt durch vertiefende Reflexion über Wissen. Damit sollen Anregungen zur Konzeption neuer Wissenssysteme zusammengetragen werden. Hier stellen sich Fragen nach der Zerlegbarkeit des Wissens, der Bestimmung der Wissenseinheiten, der Sprachinvarianz des Wissens, der Wissensformalisierung, der punktgenauen Wissensbereitstellung zu spezifischen Problemen usw. Auch zu der Aufgabe, die Gesamtheit und Ganzheit des Wissens zu gewährleisten, werden Antworten gesucht. Der vorliegende Band enthält 20 Beiträge, inklusive drei ausgearbeiteten Versionen von Vorträgen, die zwar auf der 7. Deutschen ISKO Tagung 2001 in Berlin gehalten wurden, aber sich in das hier vorgehaltene Spektrum gut einpassen (von Maik Adomßent zu Lernenden Verwaltungen, von Alfred Gerstenkorn zu Verstehensmanagement und von Christina Rautenstrauch zu Tele-Tutoring). Weiter ist ein Beitrag von Thomas Sporer hinzugefügt worden, der die während der Tagung durchgeführte Video-Dokumentation beleuchtet, sowie ein Beitrag von Peter Ohly zu Semantischen Karten, der im Programm der vorherigen Tagung ausgewiesen war, aber wegen Programmänderungen erst 2002 in Regensburg vorgetragen wurde. Der Vortrag von Norbert Meder zu Metadaten für Lernende Verwaltungen wird 2004 in der Festschrift für Klaus Peter Treumann (Uni Bielefeld) veröffentlicht werden und der Beitrag von Christian Swertz zu Kooperativer Autorenschaft ist zu einem späteren Zeitpunkt zur Veröffentlichung vorgesehen.
    Content
    3. Kooperative Arbeitsumgebungen Maik ADOMßENT (von Berlin 2001): Gestaltungspotenziale kollaborativer Wissensnetzwerke in "Lernenden Verwaltungen" am Beispiel des praxisbezogenen Online-Kurses "Projektmanagement" der Universität Lüneburg S.123 Andreas WENDT: Standardisierungen im E-Learning-Bereich zur Unterstützung der automatisierten Komposition von Lernmaterialien S.133 Katja MRUCK, Marion NIEHOFF, Guenter MEY: Forschungsunterstützung in kooperativen Lernumgebungen: Das Beispiel der "Projektwerkstatt Qualitativen Arbeitens" als Offline- und Online-Begleitkonzept S.143 Irmhild ROGULLA, Mirko PREHN: Arbeitsprozessorientierte Weiterbildung: Prozess-Systematik als Basis für Informationsaneignung, Wissenserwerb und Kompetenzentwicklung S.151 4. Wissensmanagement und Informationsdesign Alexander SIGEL: Wissensmanagement in der Praxis: Wann, wie und warum hilft dort Wissensorganisation (nicht)? S.163 Johannes GADNER, Doris OHNESORGE, Tine ADLER, Renate BUBER: Repräsentation und Organisation von Wissen zur Entscheidungsunterstützung im Management S.175 Kerstin ZIMMERMANN: Die Anforderungen an ein wissenschaftliches Informationsportal für die Telekommunikation S.187 Philip ZERWECK: Gestaltung und Erstellung komplexer Informationsangebote im Web S.197 H. Peter OHLY (von Belin 2001): Erstellung und Interpretation von semantischen Karten am Beispiel des Themas "Soziologische Beratung" S.205 Thomas SPORER, Anton KÖSTLBACHER: Digitale Dokumentation von wissenschaftlichen Veranstaltungen S.219
  15. Parschik, T.: Durchführung von Digitalisierungsprojekten in Bibliotheken (2006) 0.02
    0.015759248 = product of:
      0.055157363 = sum of:
        0.040641017 = weight(_text_:interpretation in 149) [ClassicSimilarity], result of:
          0.040641017 = score(doc=149,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.18986413 = fieldWeight in 149, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=149)
        0.014516344 = product of:
          0.029032689 = sum of:
            0.029032689 = weight(_text_:anwendung in 149) [ClassicSimilarity], result of:
              0.029032689 = score(doc=149,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.16047385 = fieldWeight in 149, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=149)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Content
    Darin: "6. Erschließung der Digitalisate Die Digitalisate sollten formal und inhaltlich erschlossen werden. Die formale Erschließung erfolgt i.d.R. nach den RAK-WB, v.a. wenn die Digitalisate im Bibliothekskatalog recherchierbar sein sollen. Die inhaltliche Erschließung trägt zur Schaffung eines Mehrwertes bei. Schon eine einfache inhaltliche Erschließung durch Vergabe von Suchkriterien erleichtert den Überblick über die Bestände zu einem bestimmten Thema. Eine sehr tiefgehende Form der Erschließung ist der Einsatz automatischer Texterkennung, der es möglich macht, mittels Volltextsuche große Bestandsmengen innerhalb von Sekunden auch nach nicht indexierten Begriffen zu durchsuchen. Der Mehrwert wächst mit dem Grad der Erschließung.` Man unterscheidet Digitalisate mit kodierten Informationen (Coded Information, CI) und Digitalisate mit nicht kodierten Informationen (Non Coded Information, NCI). Bei kodierten Digitalisaten ist jedes Schriftzeichen mit einem Code abgespeichert, der dem PC eine Interpretation ermöglicht. Speicherung im Volltext ermöglicht eine Volltextsuche. Für Text- und Metadaten haben sich XML-basierte Datenformate durchgesetzt, wobei von der DFG die Ausprägung METS (Metadata Encoding and Transmission Standard) empfohlen wird. Nicht kodierte Bild-Informationen können zum Beispiel in TIFF, JPG oder PDF vorliegen. Solche Digitalisate können vom PC nicht interpretiert werden." (S.1435)
    6.4 Linguistische Indexierungsverfahren Linguistische Verfahren können Flexionsformen erkennen (Maskulinum, Femininum, Neutrum, Singular, Plural). Eine Rechtschreibprüfung ermöglicht das Auffinden eines Begriffs auch bei falscher oder abweichender Schreibung bei der Recherche oder im digitalen Dokument. Man unterscheidet folgende Fehlerarten: - die Auslassung eines Zeichens, das in den Begriff gehört - die Einfügung eines Zeichens, das nicht in den Begriff gehört - die Substitution, also die Ersetzung eines Zeichens, das in den Begriff gehört, durch ein anderes Zeichen, das nicht in den Begriff gehört - die Vertauschung von Zeichen in ihrer Reihenfolge. Bei der syntaktischen Analyse werden Begriffe auf ihre Grundformen reduziert. Für jeden Begriff muss festgelegt werden, wie weit er reduziert werden soll. Wird der Stamm zu weit belassen, können bei der Recherche viele irrelevante Treffer angezeigt werden (Overstemming). Wird der Stamm zu knapp bemessen, werden evtl. relevante Dokumente nicht gefunden (Understemming). Zudem dient die syntaktische Analyse der Erkennung von Homographen, indem sie Mehrwortgruppen erkennt. Vor der Anwendung eines syntaktischen Verfahrens muss ein Wörterbuch erarbeitet werden. Informationslinguistische Indexsysteme werden in regelbasierte und wörterbuchbasierte Verfahren eingeteilt. Bei ersteren muss ein Regelwerk erstellt werden. Alle in den digitalisierten Dokumenten auftretenden Wörter werden gemäß diesem Regelwerk analysiert und bearbeitet. Dieses Verfahren ist fehlerbehaftet. Das regelbasierte Verfahren ist mit einem verhältnismäßig geringen Aufwand verbunden, da hierbei nicht jeder relevante Begriff einzeln bearbeitet wird. Wörterbuchbasierte Verfahren sind sehr zuverlässig. Sprachliche Unregelmäßigkeiten werden ausgeglichen. Die Erarbeitung von Wörterbüchern ist extrem arbeits-, zeit- und kostenaufwendig. Außerdem orientiert sich ein Wörterbuch zumeist an aktuellen sprachlichen und orthografischen Regelungen und erkennt alte Formen nicht. Morphologische Verfahren basieren auf den Gesetzmäßigkeiten von Wortstrukturen und der Bildung von Wortklassen. Man unterscheidet Flexionsmorphologie und Derivationsmorphologie. Bei der Flexionsmorphologie werden Wörter umgewandelt, um grammatikalische Kontraste innerhalb von Satzkonstruktionen auszudrücken. Die Derivationsmorphologie befasst sich mit Grundprinzipien der Konstruktion neuer Wörter." (S.1439)
  16. Kitzmann, A.: Hypertext handbook : the straight story (2006) 0.02
    0.0154822925 = product of:
      0.10837604 = sum of:
        0.10837604 = weight(_text_:interpretation in 102) [ClassicSimilarity], result of:
          0.10837604 = score(doc=102,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.5063043 = fieldWeight in 102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0625 = fieldNorm(doc=102)
      0.14285715 = coord(1/7)
    
    Abstract
    Hypertext Handbook provides a condensed and straightforward introduction to the main issues, concepts, and developments in both the application of hypertext technology and its interpretation by the academic community. It offers a concise history of the medium in a manner that will help readers to better understand contemporary directions in digital media technology. Hypertext Handbook provides a comprehensive guide to this complex concept and is designed to inform and inspire students and scholars alike.
  17. Münch, V.: Bald soll das Web vernünftig antworten können (2002) 0.02
    0.0154822925 = product of:
      0.10837604 = sum of:
        0.10837604 = weight(_text_:interpretation in 2553) [ClassicSimilarity], result of:
          0.10837604 = score(doc=2553,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.5063043 = fieldWeight in 2553, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0625 = fieldNorm(doc=2553)
      0.14285715 = coord(1/7)
    
    Abstract
    Über hundert Teilnehmerinnen und Teilnehmer informierten sich beim 9. AIKSymposium "Semantic Web" Mitte April über laufende Forschungs- und Entwicklungsarbeiten zur maschinellen Interpretation von Web-Inhalten. Die Informatik-Forschung will mit diesem Ansatz die Informationsbeschaffung aus dem World Wide Web automatisieren.
  18. Burrell, Q.L.: Some comments on "A proposal for a dynamic h-Type Index" by Rousseau and Ye (2009) 0.02
    0.0154822925 = product of:
      0.10837604 = sum of:
        0.10837604 = weight(_text_:interpretation in 2722) [ClassicSimilarity], result of:
          0.10837604 = score(doc=2722,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.5063043 = fieldWeight in 2722, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0625 = fieldNorm(doc=2722)
      0.14285715 = coord(1/7)
    
    Abstract
    Caution is urged over the adoption of dynamic h-type indexes as advocated by Rousseau and Ye (2008). It is shown that the dynamics are critically dependent upon model assumptions and that practical interpretation might therefore be problematic. However, interesting questions regarding the interrelations between various h-type indexes are raised.
  19. Baumard, P.: Information crises and crisis information (2009) 0.02
    0.0154822925 = product of:
      0.10837604 = sum of:
        0.10837604 = weight(_text_:interpretation in 3797) [ClassicSimilarity], result of:
          0.10837604 = score(doc=3797,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.5063043 = fieldWeight in 3797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0625 = fieldNorm(doc=3797)
      0.14285715 = coord(1/7)
    
    Abstract
    Information crises are failures of sense-making in organizations, i.e., failures to attribute a meaning and interpretation that can lead to a corrective action. Challenging the hierarchy of data, information, and knowledge, this entry argues that information crises cannot be resolved through normalization and normative prescriptions, but rather by the reinstallment of behavioral-involvement mechanisms, that have been lost in electronic mass-intermediation of postindustrial organizations.
  20. Schmidt, R.: Wege des Knowledge Managements : Themen und Vorträge der Online-Tagung 2000 (2000) 0.01
    0.014740471 = product of:
      0.10318329 = sum of:
        0.10318329 = sum of:
          0.06774294 = weight(_text_:anwendung in 4724) [ClassicSimilarity], result of:
            0.06774294 = score(doc=4724,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.37443897 = fieldWeight in 4724, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4724)
          0.035440356 = weight(_text_:22 in 4724) [ClassicSimilarity], result of:
            0.035440356 = score(doc=4724,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.2708308 = fieldWeight in 4724, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4724)
      0.14285715 = coord(1/7)
    
    Abstract
    Neue Trends im Knowlegde Management und die sich daruas ergebenden Konsequenzen für die Zukunft der professionellen Informationsarbeit werden in Fachbeiträgen und Diskussionen auf der 22. Online-Tagung der DGI thematisiert. Der Artikel bietet einen Überblick zu Struktur und Zielsetzung des Tagungskonzepts und fasst die Inhalte der Vorträge zusammen. Dabei reicht das Spektrum der Themen von ersten Erfahrungen mit der praktischen Anwendung von Wissensmanagement über neue Erkenntnisse zur global organisierten Informationsarbeit und zur Reorganisation von Wissensstrukturen im Internet und Intranet bis zu Prognosen und Einschätzungen zu zukünftigen Veränderungen auf dem Arbeitsmarkt für Informationsspezialisten

Languages

Types

  • a 1404
  • m 227
  • el 91
  • s 75
  • x 44
  • b 27
  • i 9
  • r 7
  • n 5
  • More… Less…

Themes

Subjects

Classifications