Search (51 results, page 3 of 3)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Nau, A.-C.: Begutachtungen zur Belletristik im ekz-Informationsdienst : Funktion und Qualität (2007) 0.00
    8.4567186E-4 = product of:
      0.0016913437 = sum of:
        0.0016913437 = product of:
          0.0033826875 = sum of:
            0.0033826875 = weight(_text_:a in 1406) [ClassicSimilarity], result of:
              0.0033826875 = score(doc=1406,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.06369744 = fieldWeight in 1406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1406)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  2. Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002) 0.00
    8.371725E-4 = product of:
      0.001674345 = sum of:
        0.001674345 = product of:
          0.00334869 = sum of:
            0.00334869 = weight(_text_:a in 1703) [ClassicSimilarity], result of:
              0.00334869 = score(doc=1703,freq=4.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.06305726 = fieldWeight in 1703, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1703)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  3. Kaluza, H.: Methoden und Verfahren bei der Archivierung von Internetressourcen : "The Internet Archive" und PANDORA (2002) 0.00
    6.765375E-4 = product of:
      0.001353075 = sum of:
        0.001353075 = product of:
          0.00270615 = sum of:
            0.00270615 = weight(_text_:a in 973) [ClassicSimilarity], result of:
              0.00270615 = score(doc=973,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.050957955 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=973)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Die vorliegende Arbeit befasst sich mit den Methoden und Verfahren bei der Archivierung von Internetressourcen. Ziel ist es, anhand einer vergleichenden Beschreibung zweier zur Zeit aktiver, bzw. im Aufbau befindlicher Projekte, die Grundprobleme dieser speziellen Art der Archivierung darzustellen und deren unterschiedliche Vorgehensweisen beim Aufbau des Archivs zu beschreiben und zu vergleichen. Daraus erfolgt eine Diskussion über grundsätzliche Fragestellungen zu diesem Thema. Hierzu ist es vonnöten, zuerst auf das besondere Medium Internet, insbesondere auf das World Wide Web (WWW), einzugehen, sowie dessen Geschichte und Entstehung zu betrachten. Weiterhin soll ein besonderes Augenmerk auf die Datenmenge, die Datenstruktur und die Datentypen (hier vor allem im World Wide Web) gelegt werden. Da die daraus entstehenden Probleme für Erschließung und Retrieval, die Qualität und die Fluktuation der Angebote im Web eine wichtige Rolle im Rahmen der Archivierung von Internetressourcen darstellen, werden diese gesondert mittels kurzer Beschreibungen bestimmter Instrumente und Projekte zur Lösung derselben beschrieben. Hier finden insbesondere Suchmaschinen und Webkataloge, deren Arbeitsweise und Aufbau besondere Beachtung. Weiterhin sollen die "Virtuelle Bibliothek" und das "Dublin Core"- Projekt erläutert werden. Auf dieser Basis wird dann speziell auf das allgemeine Thema der Archivierung von Internetressourcen eingegangen. Ihre Grundgedanken und ihre Ziele sollen beschrieben und erste Diskussionsfragen und Diskrepanzen aufgezeigt werden. Ein besonderes Augenmerk gilt hier vor allem den technischen und rechtlichen Problemen, sowie Fragen des Jugendschutzes und der Zugänglichkeit zu mittlerweile verbotenen Inhalten. Einzelne Methoden der Archivierung, die vor allem im folgenden Teil anhand von Beispielen Beachtung finden, werden kurz vorgestellt. Im darauf folgenden Teil werden zwei Archivierungsprojekte detailliert beschrieben und analysiert. Einem einführenden Überblick über das jeweilige Projekt, folgen detaillierte Beschreibungen zu Projektverlauf, Philosophie und Vorgehensweise. Die Datenbasis und das Angebot, sowie die Funktionalitäten werden einer genauen Untersuchung unterzogen. Stärken und Schwächen werden genannt, und wenn möglich, untereinander verglichen. Hier ist vor allem auch die Frage von Bedeutung, ob das Angebot a) den Ansprüchen und Zielsetzungen des Anbieters genügt, und ob es b) den allgemeinen Grundfragen der Archivierung von Internetressourcen gleichkommt, die in Kapitel 3 genannt worden sind. Auf Basis aller Teile soll dann abschließend der derzeitige Stand im Themengebiet diskutiert werden. Die Arbeit schließt mit einer endgültigen Bewertung und alternativen Lösungen."
  4. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.00
    6.765375E-4 = product of:
      0.001353075 = sum of:
        0.001353075 = product of:
          0.00270615 = sum of:
            0.00270615 = weight(_text_:a in 548) [ClassicSimilarity], result of:
              0.00270615 = score(doc=548,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.050957955 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
  5. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.00
    6.765375E-4 = product of:
      0.001353075 = sum of:
        0.001353075 = product of:
          0.00270615 = sum of:
            0.00270615 = weight(_text_:a in 4031) [ClassicSimilarity], result of:
              0.00270615 = score(doc=4031,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.050957955 = fieldWeight in 4031, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4031)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  6. Heinz, A.: ¬Diie Lösung des Leib-Seele-Problems bei John R. Searle (2002) 0.00
    6.765375E-4 = product of:
      0.001353075 = sum of:
        0.001353075 = product of:
          0.00270615 = sum of:
            0.00270615 = weight(_text_:a in 4299) [ClassicSimilarity], result of:
              0.00270615 = score(doc=4299,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.050957955 = fieldWeight in 4299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4299)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  7. Riebe, U.: John R. Searles Position zum Leib-Seele-Problem (2008) 0.00
    6.765375E-4 = product of:
      0.001353075 = sum of:
        0.001353075 = product of:
          0.00270615 = sum of:
            0.00270615 = weight(_text_:a in 4567) [ClassicSimilarity], result of:
              0.00270615 = score(doc=4567,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.050957955 = fieldWeight in 4567, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4567)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wenig ist heute für den gebildeten Bürger interessanter, als die aktuellen Erkenntnisse der Neurowissenschaften zu verfolgen. Letztere ermöglichen durch bildgebende Verfahren wie z. B. EEG, fMRT oder MEG, dem Menschen "beim Denken zuzusehen". So heißt es zumindest in den Medien. Aktuelle Forschungsberichte zeigen eine Näherung an diese Sichtweise. Kalifornischen Forschern ist es durch eine Hirnmessung jüngst gelungen, mit groer Wahrscheinlichkeit zu erkennen, welches Bild eine Versuchsperson gerade betrachtet. Dazu wurden der Versuchsperson erst 1.750 Bilder mit Naturmotiven gezeigt und die jeweilige Stimulation im Hirn per fMRT gemessen. Geachtet wurde speziell auf visuelle Areale, die in eine dreidimensionale Matrix transformiert wurden. Die einzelnen Segmente heissen Voxel (analog zu zweidimensionalen Pixeln). So entstand eine Datenbank aus Voxel-Aktivitätsmustern. Im folgenden Durchlauf wurden der Versuchsperson 120 neue Bilder gezeigt und anhand der Datenbank die wahrscheinliche Voxel-Aktivität berechnet. Vorausgesagt wurde dann das Bild, dessen tatsächliches Voxel-Muster mit dem berechneten am meisten übereinstimmte. Bei Versuchsperson A wurde eine Trefferquote von 92% erreicht, bei Versuchsperson B immerhin 72%. Die Forscher folgern optimistisch, dass es über ihren Ansatz möglich sein wird, gesehene Bildeindrücke über Hirnmessungen zu rekonstruieren. Hier wird versucht auf Kants Frage "Was ist der Mensch?" auf materialistische Weise näher zu kommen. Im Bezug auf frühere Experimente von Benjamin Libet schließen heutzutage einige Hirnforscher, dass das bewusste Erleben eines Menschen nur Beiwerk von deterministisch ablaufenden Hirnprozessen ist, weil das Erleben neuronaler Aktivität zeitlich hinterherhinkt. Auch wird gefolgert, dass empfundene Willensfreiheit nur eine Illusion ist, obwohl Libet diese harte Schlussfolgerung nicht zieht. Die Ergebnisse solcher Studien sind zwar hochinteressant, doch muss man bei der Interpretation auch hohe Sorgfalt walten lassen, insbesondere wenn es um das Thema Bewusstsein geht. Von philosophischer Seite her hat sich John Searle intensiv mit dem Thema auseinandergesetzt und eine Theorie entwickelt, die alle bisherigen philosophischen Modelle verwirft.
  8. Rötzer, A.: ¬Die Einteilung der Wissenschaften : Analyse und Typologisierung von Wissenschaftsklassifikationen (2003) 0.00
    5.9197034E-4 = product of:
      0.0011839407 = sum of:
        0.0011839407 = product of:
          0.0023678814 = sum of:
            0.0023678814 = weight(_text_:a in 684) [ClassicSimilarity], result of:
              0.0023678814 = score(doc=684,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.044588212 = fieldWeight in 684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=684)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  9. Pfäffli, W.: ¬La qualité des résultats de recherche dans le cadre du projet MACS (Multilingual Access to Subjects) : vers un élargissement des ensembles de résultats de recherche (2009) 0.00
    5.9197034E-4 = product of:
      0.0011839407 = sum of:
        0.0011839407 = product of:
          0.0023678814 = sum of:
            0.0023678814 = weight(_text_:a in 2818) [ClassicSimilarity], result of:
              0.0023678814 = score(doc=2818,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.044588212 = fieldWeight in 2818, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2818)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    L'examen des titres communs nous a montré qu'en tous les cas, une partie des titres pertinents échapperaient à une requête effectuée par l'intermédiaire du lien. Il nous semble donc plus important que les efforts se concentrent sur les moyens d'effectivement donner un accès à des documents potentiellement pertinents plutôt que de définir plus précisément la qualité des liens au vu des résultats. Une première voie est le recours aux relations hiérarchiques des langages documentaires, mais nous avons vu qu'elles ne sont pas en mesure d'apporter une solution dans tous les cas. Le recours à une classification, à une ontologie ou à des techniques de traitement automatique du langage sont d'autres voies à explorer, qui peuvent éviter de devoir multiplier les liens, et par là compliquer encore leur gestion. En chemin, nous avons rencontré , mais sans pouvoir les aborder, encore bien d'autres questions, qui sont toutes autant de défis supplémentaires à relever, comme le problème de l'accès aux titres non indexés ou le problème de l'évolution des langages documentaires et donc de la mise à jour des liens. Nous avons aussi laissé de côté les questions techniques de l'accès de l'interface aux différents catalogues et des possibilités de présentations des résultats de recherche proprement dits (par bibliothèque interrogée ou réunis en un ensemble, ranking). Il reste ainsi assez à faire jusqu'au jour où un usager pourra entrer un terme de recherche dans une interface conviviale, qui lui ouvrira un accès thématique simple mais complet aux ressources des bibliothèques d'Europe, puis du monde !
  10. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.00
    5.9197034E-4 = product of:
      0.0011839407 = sum of:
        0.0011839407 = product of:
          0.0023678814 = sum of:
            0.0023678814 = weight(_text_:a in 4495) [ClassicSimilarity], result of:
              0.0023678814 = score(doc=4495,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.044588212 = fieldWeight in 4495, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4495)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
  11. Ackermann, A.: Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK (2001) 0.00
    3.3826876E-4 = product of:
      6.765375E-4 = sum of:
        6.765375E-4 = product of:
          0.001353075 = sum of:
            0.001353075 = weight(_text_:a in 2061) [ClassicSimilarity], result of:
              0.001353075 = score(doc=2061,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.025478978 = fieldWeight in 2061, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2061)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    

Languages

  • d 34
  • e 16
  • f 1
  • More… Less…

Types