Search (227 results, page 1 of 12)

  • × year_i:[2000 TO 2010}
  • × type_ss:"m"
  1. Popper, K.R.: ¬Das offene Universum : ein Argument für den Indeterminismus (2001) 0.07
    0.070354454 = product of:
      0.24624059 = sum of:
        0.17850557 = weight(_text_:quantenphysik in 4501) [ClassicSimilarity], result of:
          0.17850557 = score(doc=4501,freq=2.0), product of:
            0.34748885 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.037368443 = queryNorm
            0.51370156 = fieldWeight in 4501, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4501)
        0.067735024 = weight(_text_:interpretation in 4501) [ClassicSimilarity], result of:
          0.067735024 = score(doc=4501,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.3164402 = fieldWeight in 4501, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4501)
      0.2857143 = coord(2/7)
    
    Abstract
    "In Das offene Universum: Ein Argument für den Indeterminismus präsentiert Popper eine Kritik des 'wissenschaftlichen' und des metaphysischen Determinismus und argumentiert, daß die klassische Physik den Determinismus genauso wenig voraussetzt oder impliziert wie die Quantenphysik. Dennoch stellt er fest, daß der metaphysische Determinismus den Werken vieler zeitgenössischer Quantenphysiker immer noch zugrundeliegt, inklusive den Werken von Gegnern des Determinismus. Popper verfolgt die Rollen, die die subjektive Interpretation der Wahrscheinlichkeit in der Physik immer noch spielt, bis hin zu diesen metaphysischen deterministischen Voraussetzungen [.]. Der [.] Band tritt in seiner Abhandlung über den Determinismus für die Ansicht ein, daß unsere Rationalität, was die Voraussage des zukünftigen Wachstums des menschlichen Wissens anbelangt, begrenzt ist. Wenn es keine solche Grenze gäbe, wären ernsthafte Argumente sinnlos: und ihr Auftreten wäre eine Illusion.Popper argumentiert also, daß die menschliche Rationalität, was Kritik anbelangt, unbegrenzt ist, jedoch begrenzt, was ihre Voraussagekraft anbelangt; und er zeigt, daß die Unbegrenztheit und die Begrenztheit jede in ihrem Gebiet notwendig sind, damit es die menschliche Rationalität überhaupt geben kann." (Der Herausgeber im Nachwort).
  2. Volpi, J.: ¬Das Klingsor-Paradox (2002) 0.04
    0.03570112 = product of:
      0.24990782 = sum of:
        0.24990782 = weight(_text_:quantenphysik in 792) [ClassicSimilarity], result of:
          0.24990782 = score(doc=792,freq=2.0), product of:
            0.34748885 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.037368443 = queryNorm
            0.71918225 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
      0.14285715 = coord(1/7)
    
    Abstract
    Wieder erscheint ein Roman mit Bezug zur Mathematik, und diesmal ein besonders schöner, vollendeter und ernsthafter Roman. Jorge Volpi zeichnet in Das Klingsor-Paradox nach, wie sich die Quantenphysik im Schatten des Dritten Reiches entwickelt hat, und fädelt das Geschehene in eine Nachkriegsgeschichte ein, die von einer Handvoll Physikern, von Verbrechen, Verantwortung und Verrat erzählt
  3. Görnitz, T.; Görnitz, B.: ¬Der kreative Kosmos : Geist und Materie aus Information (2002) 0.03
    0.028510759 = product of:
      0.1995753 = sum of:
        0.1995753 = weight(_text_:quantenphysik in 16) [ClassicSimilarity], result of:
          0.1995753 = score(doc=16,freq=10.0), product of:
            0.34748885 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.037368443 = queryNorm
            0.5743359 = fieldWeight in 16, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.01953125 = fieldNorm(doc=16)
      0.14285715 = coord(1/7)
    
    BK
    33.23 Quantenphysik
    Classification
    33.23 Quantenphysik
    Footnote
    Die Autoren betonen, dass weder die klassische Information noch die Quanteninformation allein eine vollständige Beschreibung der Wirklichkeit liefern können. Nötig sei vielmehr das »gegenseitige Bedingen und Auseinander-Hervorgehen« von Fakten und Möglichkeiten, was sie als »Schichtenstruktur von klassischer Physik und Quantenphysik« bezeichnen. Da die Autoren von der Universalität der Information ausgehen, vermuten sie genau diese Schichtenstruktur auch als Grundlage der Informationsverarbeitung im Gehirn. Entscheidend sei nicht der Unterschied zwischen dem Unbewussten und dem Bewussten, die beide nur eine Form von Information seien, sondern zwischen der klassischen und der Quanteninformation. Das Selbsterleben habe nun neben dem Zugang zu Fakten auch Zugang zu Quanteninformation: »Denkendes Selbst erleben bildet einen individuellen Quantenprozess, der in seinem Kern bis zum Tod des Lebewesens nicht klassisch wird.« Damit überschreiten die Autoren in einem wesentlichen Punkt das heutige Verständnis der Quantentheorie, demzufolge einem Beobachter der Zugang zur Quanteninformation stets versagt ist, da diese durch eine Messung stets zerstört wird. Quanteninformation beschreibt alle zukünftigen Möglichkeiten eines bestimmten Quantenzustands zugleich, samt deren Veränderungen in der Zeit. Die Autoren sehen hierin eine Erklärung für die Assoziativität des Denkens und die »Nichtentschiedenheit« des Unbewussten. Aber gibt es in unserem Bewusstsein tatsächlich das gleichzeitige Erleben einander ausschließender Möglichkeiten? Dies scheint zunächst wenig plausibel, erleben wir unser Denken doch als grundsätzlich sequenziell, auch wenn wir rasch zwischen den verschiedensten Gegenständen wechseln und dabei mehrere Aspekte dieser Gegenstände im Auge behalten können. Aber auch wenn tiefergehende Introspektion gewisse Aspekte von Parallelität aufzeigen mag, droht hier doch die Schlussfolgerung, dass der Zugang zur Quanteninformation nur ein vermittelter ist, was die ursprüngliche Annahme in Frage stellen würde. Dies bedürfte umso mehr der Klärung, als die Autoren argumentieren, die enorme Geschwindigkeit des Gehirns bei der Lösung komplexer Aufgaben sei nur durch das gleichzeitige Durchdenken aller Möglichkeiten zu erklären: die einem Quantencomputer inhärente Parallelverarbeitung.
    Durch die Bildung von neuen, räumlich ausgedehnten Quantenzuständen aus ursprünglich getrennten Zuständen könne schließlich zum einen das »Bindungsproblem« der Hirnforschung gelöst werden, wie nämlich Informationen über ein Objekt an unterschiedlichen Orten im Gehirn zusammengefasst und als Einheit erlebt werden können. Zum anderen enthielten solche kombinierten Quantenzustände die Antworten auf gänzlich neue »Fragen«. Diese Antworten könnten bei Feststellungen oder Entscheidungen zu Fakten werden, die in den Ausgangszuständen gar nicht enthalten waren. So könne im Rahmen der Quantenphysik tatsächlich Neues entstehen. Wie der Titel andeutet, geht das Buch über die hier geschilderten Aspekte hinaus. Es verankert den universellen Informationsbegriff in der Kosmologie, nach dem Vorbild Carl Friedrich von Weizsäckers, dessen Ure in der heutigen Terminologie zu Quantenbits geworden sind, und zeichnet die Evolution der Information von der Strukturbildung in der Natur bis zur Schaffung von Bedeutung in Gehirnen nach. Gleichzeitig sucht es in den Arbeiten von Sigmund Freud und Carl Gustav Jung nach Analogien zur Quantentheorie, versucht etwa das »kollektive Unbewusste« Jungs mit der Quanteninformation im Unbewussten in Beziehung zu setzen. Das Buch ist für einen breiten Leserkreis geschrieben und auch tatsächlich geeignet. Seine Stärke liegt darin, dass es aus einer tiefen Kenntnis der Quantentheorie heraus entstanden ist und deren Möglichkeiten konsequent weiterdenkt. Wenn man dabei auch nicht jedem Argument folgen oder jede Analogie für plausibel halten mag, so ist doch insgesamt ein konsistenter Rahmen geschaffen, der sogar experimentell - durch Introspektion - überprüft werden kann, noch bevor zukünftige Messmethoden Quantenzustände in Gehirnen nachweisen können. Eine wesentliche Frage wird dann sein, ob es im Gehirn makroskopisch ausgedehnte Quantenzustände gibt. Dies dürften viele Physiker bezweifeln. Die Autoren vermuten vor allem Photonen, also elektromagnetische Felder, als Träger von Quanteninformation. Damit haben sich die Autoren nichts weniger vorgenommen als eine Lösung des notorischen Leib-Seele-Problems: Ist alles Denken Folge physiologischer Prozesse und wegen deren Determiniertheit die erlebte Freiheit des Geistes eine Illusion, oder muss man zu einem nichtkausalen Dualismus zwischen Geist und Materie übergehen? Die meisten Naturwissenschaftler wählen die erste Alternative, einige wenige die zweite - und die Autoren eine dritte. Sie erklären die Information zur primären Substanz, räumen Gedanken und anderen erlebten Zuständen denselben Status ein wie materiellen Einheiten; die Kausalität bleibt erhalten, indem die Quantenmechanik zur grundlegenden Theorie der Information erhoben wird. Damit können nicht nur körperliche Zustände zur Ursache von Gedanken werden, sondern insbesondere auch Gedanken körperliche Zustände verursachen. Gibt es in diesem Rahmen eine Chance für die Freiheit des Denkens und Wollens? Die Autoren sehen sie in dem Wechselspiel von durch Fakten bestimmter Notwendigkeit und dem neue Möglichkeiten eröffnenden Zufall, wie es in der Schichtenstruktur von klassischer und Quantenphysik vorgeprägt sei. Diese Antwort vermag zwar noch nicht zu überzeugen. Vermutlich ist es aber auch gar nicht die Aufgabe der Naturwissenschaft, die Freiheit des Menschen zu erklären oder zu beweisen. Die Autoren sprechen deshalb auch nur von einem Rahmen, der Freiheit innerhalb einer naturwissenschaftlichen Weltbeschreibung zu denken erlaube. Die Schaffung dieses Rahmens, der mit der Lösung des Dilemmas zwischen Subjektivität und Kausalität zusammenhängt, ist die wesentliche Leistung dieses außergewöhnlichen Buches."
  4. Breidbach, O.: Neue Wissensordnungen : wie aus Informationen und Nachrichten kulturelles Wissen entsteht (2008) 0.02
    0.018591266 = product of:
      0.06506943 = sum of:
        0.05747507 = weight(_text_:interpretation in 3037) [ClassicSimilarity], result of:
          0.05747507 = score(doc=3037,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.2685084 = fieldWeight in 3037, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3037)
        0.0075943614 = product of:
          0.015188723 = sum of:
            0.015188723 = weight(_text_:22 in 3037) [ClassicSimilarity], result of:
              0.015188723 = score(doc=3037,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.116070345 = fieldWeight in 3037, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3037)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Date
    22. 7.2009 13:43:50
    Footnote
    Rez. in: BuB 61(2009) H.4, S.281-282 (J. Eberhardt): "Die Bücher der im letzten Jahr gestarteten »Edition UnseId« sind dünn und preisgünstig, sie zielen damit auf ein größeres Publikum. Anspruchsvoll streben die ersten Bände der Edition danach, den Lesern die Welt zu erklären, oder kantischer noch, die Bedingungen einer solchen Welterklärung zu diskutieren. In diese Kategorie fällt auch der Band von Olaf Breidbach über die »Neuen Wissensordnungen«, der eben nicht bestimmtes Wissen vermitteln möchte, sondern das Wissen für sich als kulturelles und historisches Phänomen in den Blick nimmt. Das lässt eigentlich - für Bibliothekare als Arbeiter an oder in der Wissensordnung zumal - interessante Lektüre erwarten. Doch dürfte es auch außerhalb unseres Berufsstandes nicht allzu viele Leser geben, die Honig aus dem Büchlein saugen können, weil der Jenaer Professor für die Geschichte der Naturwissenschaften mehr Mühe auf die Ausbreitung seines reichen Materials denn auf seine Aufbereitung verwandt hat. Das Buch wird regiert von zwei Grundgedanken, die Breidbach verschiedentlich wiederholt. Der erste steckt auch im Titel: »Information« und »Wissen« sind nicht dasselbe, sondern Wissen entsteht erst aus Information, und zwar durch Interpretation und Reflexion. Wissen ist »interpretierte Information« (Seite 12, 168 und weitere). Der zweite betrifft das Wesen der Interpretation: Eine neue Information kann nur interpretiert werden, indem man sie in Beziehung setzt zu dem, was schon gewusst wird, also indem man sie in das »Netz« seines Wissens einbezieht - und dies führt notwendig dazu, dass das Netz sich verändert. Wissensordnung muss man dynamisch verstehen, nicht statisch! Das Buch versucht zu erklären, was diese beiden Gedanken bedeuten und welche Folgen sie haben dafür, wie Wissensordnung zu modellieren wäre. Dem ersten Gedanken nähert man sich vielleicht am einfachsten über einen Vergleich mit der platonischen Wissensauffassung, die als Diskussionsfolie auch noch die zeitgenössische Erkenntnistheorie regiert. . . .
  5. Favre-Bulle, B.: Information und Zusammenhang : Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation (2001) 0.02
    0.018375382 = product of:
      0.06431384 = sum of:
        0.05418802 = weight(_text_:interpretation in 1783) [ClassicSimilarity], result of:
          0.05418802 = score(doc=1783,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.25315216 = fieldWeight in 1783, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.03125 = fieldNorm(doc=1783)
        0.010125816 = product of:
          0.020251632 = sum of:
            0.020251632 = weight(_text_:22 in 1783) [ClassicSimilarity], result of:
              0.020251632 = score(doc=1783,freq=2.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.15476047 = fieldWeight in 1783, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1783)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Im Zeitalter der elektronischen Medien ist "Information" zu einem schillernden Schlagwort geworden. Sie legt die Basis für Entscheidungsprozesse und bestimmt unser Denken und Handeln. Doch was ist Information und wie funktioniert sie? Das Buch stellt das Thema erstmals aus der Sicht der Informationstheorie, der Wahrnehmung, des Denkens und der Sprache dar. Auf interdisziplinärer Ebene wird der Informationsbegriff erarbeitet. Wie erlangen Daten Sinn und Bedeutung? Das Werk behandelt die Natur der Informationsflüsse und diskutiert die Rolle des Kontextes. Zahlreiche Beispiele und Abbildungen unterstützen die Erläuterungen. Anhand des Japanischen wird der dramatische Einfluß des sprachlichen Kontextes auf die inhaltliche Interpretation verdeutlicht. Der Leser erhält Einblicke in die Mechanismen der Informationsflüsse und kann damit rascher die richtigen Entscheidungen treffen. Er vermeidet Mißverständnisse, indem er die Rolle des Zusammenhangs in seinen Denkprozessen beachtet.
    Date
    22. 3.2008 14:53:43
  6. Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen : Proceedings der 8. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Regensburg, 9.-11. Oktober 2002 (2004) 0.02
    0.015759248 = product of:
      0.055157363 = sum of:
        0.040641017 = weight(_text_:interpretation in 5864) [ClassicSimilarity], result of:
          0.040641017 = score(doc=5864,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.18986413 = fieldWeight in 5864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
        0.014516344 = product of:
          0.029032689 = sum of:
            0.029032689 = weight(_text_:anwendung in 5864) [ClassicSimilarity], result of:
              0.029032689 = score(doc=5864,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.16047385 = fieldWeight in 5864, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5864)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Mit der Entwicklung von Wissen und weltweiter Kommunikation kommt der Wissensorganisation zunehmend eine Schlüsselrolle zu. Einerseits geht es darum, zu verstehen, was Wissen ist und wie es strukturiert ist, andererseits möchte man die Technik der elektronischen Darstellung und Wiederauffindung des Wissens über den gegenwärtigen Stand hinaus weiterentwickeln. Dabei geht es um vielfältige Anwendungen, z. B. Wissensvertextung, Forschungsunterstützung, Bereitstellung von Wissen in Arbeits- und Entscheidungsprozessen, Weiterbildung, Ordnung, Wissenverknüpfung, Innovationsförderung und anderes. Schwerpunkt der Fachtagung Wissensorganisation 2002 sollte darum unter dem Motto "Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen", in Weiterführung ähnlicher Themen von den beiden vorhergehenden Tagungen, Methoden der Wissensorganisation und den Nutzen ihrer Anwendung im Rahmen von eLearning-Aktivitäten beleuchten sowie andererseits eLearning-Methoden für die Wissensorganisation aufgreifen. Didaktische Modelle wie etwa die Lernontologien stehen dabei ebenso zur Debatte wie Anwendungen von Werkzeugen der Wissensmodellierung oder der begrifflichen Wissensstrukturierung. Ziel soll es sein, den Beitrag der Wissensorganisation zur Entwicklung von Arbeitstechniken und neuer Lernkulturen herauszuarbeiten und gleichzeitig auch didaktische Konzepte für die Wissensorganisation fruchtbar zu machen. Folgende Thematiken können die Ausrichtung dieses Vorhabens beispielhaft skizzieren: - Terminologische Kontrolle in Online-Lernumgebungen - Wie zu organisieren ist (zu Verfahren der Wissensanordnung) - Grundlagen für die Gestaltung von Wissensorganisations- und Lernsystem - Der Benutzer als Lerner - der Lerner als Benutzer - Lehrer als Autoren (der Blick auf den Wissensproduzenten) Die Thematisierung praktischer Arbeitsfelder und Werkzeuge, z. B. die Metadatenorganisation mit XML, werden ergänzt durch vertiefende Reflexion über Wissen. Damit sollen Anregungen zur Konzeption neuer Wissenssysteme zusammengetragen werden. Hier stellen sich Fragen nach der Zerlegbarkeit des Wissens, der Bestimmung der Wissenseinheiten, der Sprachinvarianz des Wissens, der Wissensformalisierung, der punktgenauen Wissensbereitstellung zu spezifischen Problemen usw. Auch zu der Aufgabe, die Gesamtheit und Ganzheit des Wissens zu gewährleisten, werden Antworten gesucht. Der vorliegende Band enthält 20 Beiträge, inklusive drei ausgearbeiteten Versionen von Vorträgen, die zwar auf der 7. Deutschen ISKO Tagung 2001 in Berlin gehalten wurden, aber sich in das hier vorgehaltene Spektrum gut einpassen (von Maik Adomßent zu Lernenden Verwaltungen, von Alfred Gerstenkorn zu Verstehensmanagement und von Christina Rautenstrauch zu Tele-Tutoring). Weiter ist ein Beitrag von Thomas Sporer hinzugefügt worden, der die während der Tagung durchgeführte Video-Dokumentation beleuchtet, sowie ein Beitrag von Peter Ohly zu Semantischen Karten, der im Programm der vorherigen Tagung ausgewiesen war, aber wegen Programmänderungen erst 2002 in Regensburg vorgetragen wurde. Der Vortrag von Norbert Meder zu Metadaten für Lernende Verwaltungen wird 2004 in der Festschrift für Klaus Peter Treumann (Uni Bielefeld) veröffentlicht werden und der Beitrag von Christian Swertz zu Kooperativer Autorenschaft ist zu einem späteren Zeitpunkt zur Veröffentlichung vorgesehen.
    Content
    3. Kooperative Arbeitsumgebungen Maik ADOMßENT (von Berlin 2001): Gestaltungspotenziale kollaborativer Wissensnetzwerke in "Lernenden Verwaltungen" am Beispiel des praxisbezogenen Online-Kurses "Projektmanagement" der Universität Lüneburg S.123 Andreas WENDT: Standardisierungen im E-Learning-Bereich zur Unterstützung der automatisierten Komposition von Lernmaterialien S.133 Katja MRUCK, Marion NIEHOFF, Guenter MEY: Forschungsunterstützung in kooperativen Lernumgebungen: Das Beispiel der "Projektwerkstatt Qualitativen Arbeitens" als Offline- und Online-Begleitkonzept S.143 Irmhild ROGULLA, Mirko PREHN: Arbeitsprozessorientierte Weiterbildung: Prozess-Systematik als Basis für Informationsaneignung, Wissenserwerb und Kompetenzentwicklung S.151 4. Wissensmanagement und Informationsdesign Alexander SIGEL: Wissensmanagement in der Praxis: Wann, wie und warum hilft dort Wissensorganisation (nicht)? S.163 Johannes GADNER, Doris OHNESORGE, Tine ADLER, Renate BUBER: Repräsentation und Organisation von Wissen zur Entscheidungsunterstützung im Management S.175 Kerstin ZIMMERMANN: Die Anforderungen an ein wissenschaftliches Informationsportal für die Telekommunikation S.187 Philip ZERWECK: Gestaltung und Erstellung komplexer Informationsangebote im Web S.197 H. Peter OHLY (von Belin 2001): Erstellung und Interpretation von semantischen Karten am Beispiel des Themas "Soziologische Beratung" S.205 Thomas SPORER, Anton KÖSTLBACHER: Digitale Dokumentation von wissenschaftlichen Veranstaltungen S.219
  7. Kitzmann, A.: Hypertext handbook : the straight story (2006) 0.02
    0.0154822925 = product of:
      0.10837604 = sum of:
        0.10837604 = weight(_text_:interpretation in 102) [ClassicSimilarity], result of:
          0.10837604 = score(doc=102,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.5063043 = fieldWeight in 102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0625 = fieldNorm(doc=102)
      0.14285715 = coord(1/7)
    
    Abstract
    Hypertext Handbook provides a condensed and straightforward introduction to the main issues, concepts, and developments in both the application of hypertext technology and its interpretation by the academic community. It offers a concise history of the medium in a manner that will help readers to better understand contemporary directions in digital media technology. Hypertext Handbook provides a comprehensive guide to this complex concept and is designed to inform and inspire students and scholars alike.
  8. Lorenz, B.: Handbuch zur Regensburger Verbundklassifikation (2002) 0.01
    0.01456434 = product of:
      0.05097519 = sum of:
        0.033867512 = weight(_text_:interpretation in 2927) [ClassicSimilarity], result of:
          0.033867512 = score(doc=2927,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.1582201 = fieldWeight in 2927, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2927)
        0.017107675 = product of:
          0.03421535 = sum of:
            0.03421535 = weight(_text_:anwendung in 2927) [ClassicSimilarity], result of:
              0.03421535 = score(doc=2927,freq=4.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.18912025 = fieldWeight in 2927, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2927)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Footnote
    Der erste Schritt zur Verbundklassifikation war die Übernahme der Regensburger Aufstellungssystematik durch die UB Augsburg 1970 und die sich daran knüpfende enge Kooperation in allen Fragen der Sacherschließung. In den Siebzigerund Achtzigerjahren kamen die Bibliotheken der neu gegründeten bayerischen Universitäten und die Bibliotheken der bayerischen Fachhochschulen als Anwender hinzu. In den Neunzigerjahren entschlossen sich auf bayerischem Beitrittsgebiet die alten Universitäten mit zweischichtigen Bibliothekssystemen vermehrt zu Reklassifikationen ihrer Freihandbestände nach der RVK; es vollzog sich auch die Expansion der Verbundklassifikation in die neuen Bundesländer und in das deutschsprachige Ausland. Diese Erfolgsgeschichte der Verbundklassifikation basiert einerseits auf der Grundstruktur der Systematik - sie ist primär Aufstellungsordnung, retrievalfähig, optimierbar und in gewissen Grenzen tolerant gegenüber Doppelstellen, also ansatzweise Reader-Interest-Classification andererseits hat die Verbundkoordinierung in Regensburg eine glückliche Hand bewiesen, indem sie nicht nur solide Redaktionsarbeit geleistet, sondern vor allem auch den Anwenderbibliotheken ihre guten Dienste zur Unterstützung in der Einführung oder weiteren Anwendung der Systematik angeboten hat. Entscheidend ist aber auch der Umstand, dass Aktualisierungen und - wenn nötig - tief greifende Revisionen möglich und erwünscht sind, von allen Anwendern eingebracht werden können und im Konsens beschlossen werden.
    - HistorischerKontext - Den größten Umfang des Handbuchs nehmen die Kurzpräsentationen der 34 einzelnen Fachsystematiken ein, aus denen die Regensburger Aufstellungsordnung sich zusammensetzt. Jede dieser Präsentationen besteht aus dem Inhaltsverzeichnis mit der Gliederung in Untergruppen, Hinweisen aufwichtige Etappen in der Redaktionsgeschichte der Einzelsystematik sowie Benutzungshinweisen zur Anwendung von Schlüsseln und anderen polyhierarchischen Gliederungsmomenten. Das Studium der Einzelpräsentationen offenbart, dass der Differenzierungsgrad sehr unterschiedlich ist und dass die an sich monohierarchische Struktur der RVK j e nach Umfang von Schlüsselungen beträchtlich relativiert werden kann. Die »Regeln für die Signaturvergabe« in der Fassung vom Dezember 2002, deren Schwerpunkt auf der formalen Seite, der Individualisierung durch CSN (Cutter-Sanborn-Notation) und gegebenenfalls Auflagen-, Bandund Exemplarbezeichnungen, liegt, beschließen das Handbuch. Technische Errungenschaften jüngeren Datums - hier vor allem die Schaffung der »RVK online« - werden nur am Rande gestreift. Diese würden jedoch eine ausführlichere Würdigung im Rahmen eines solchen Handbuchs verdienen, erleichtern und unterstützen sie doch wesentlich die Kodifizierung und die Umsetzung beschlossener Optimierungen in der Regensburger Koordinierungsstelle und in den einzelnen Anwenderbibliotheken. Bernd Lorenz betont, dass eine Aufstellungssystematik wie die Regensburger Verbundklassifikation nicht »den Zusammenhang der Dinge selbst« (Seite 42) spiegelt, sondern lediglich eine sinnvolle bibliothekarische Anordnung der Bestände anstrebt. Die im Handbuch ausführlich referierte Geschichte der jüngsten Revision der Einzelsystematik Theologie/Religionswissenschaften anlässlich der Übernahme der RVK in den neuen Bundesländern mit starken evangelisch-theologischen Fakultäten (Seite 76 ff.) zeigt einmal mehr, dass Systematiken einen tieferen Sitz im (akademischen) Leben haben als von Bibliothekaren beabsichtigt.
    - Theoretische Reflexion - Gerade dieser Fall demonstriert, dass auch die RVK als Ganzes und in ihren einzelnen Teilen ihre Prägungen in bestimmten historischen Kontexten erfahren hat und daher eine historisch ableitbare spezifische Interpretation des (möglichen) Zusammenhangs der Dinge beinhaltet. In der Ermittlung der kulturund wissenschaftsgeschichtlichen Hintergründe der Entstehung einzelner Systematiken der Regensburger Verbundklassifikation ist die wichtigste Anregung des Handbuchs auf dem Gebiet der theoretischen Reflexion zusehen."
  9. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.01
    0.013684542 = product of:
      0.09579179 = sum of:
        0.09579179 = weight(_text_:interpretation in 2731) [ClassicSimilarity], result of:
          0.09579179 = score(doc=2731,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.44751403 = fieldWeight in 2731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.14285715 = coord(1/7)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  10. Greve, J.: Kommunikation und Bedeutung : Grice-Programm, Sprechakttheorie und radikale Interpretation (2003) 0.01
    0.013684542 = product of:
      0.09579179 = sum of:
        0.09579179 = weight(_text_:interpretation in 4382) [ClassicSimilarity], result of:
          0.09579179 = score(doc=4382,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.44751403 = fieldWeight in 4382, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4382)
      0.14285715 = coord(1/7)
    
    Abstract
    In der Studie werden drei pragmatisch orientierte Bedeutungstheorien untersucht. Dem von Grice ausgehenden Ansatz nach lässt sich Bedeutung aus Sprecherabsichten ableiten. Die Sprechakttheorie in der von Searle und Habermas vorgetragenen Form geht davon aus, Bedeutung und Handlung seien über konstitutive Regeln verbunden. Davidson entwickelt die Bedeutungstheorie als eine Wahrheitstheorie, welche den Erfordernissen an eine Bedeutungstheorie angepasst wird. Da diese für Davidson die Gestalt einer Interpretationstheorie annimmt, müssen in einer Theorie der Bedeutung die Überzeugungen und Absichten der Sprechenden berücksichtigt werden. Gleichwohl ist es ihm zufolge nicht möglich, die Bedeutungen aus den Sprecherabsichten abzuleiten, wie im Grice-Programm behauptet, oder im Sinne der Sprechakttheorie auf konstitutive Regeln zurückzuführen. Vielmehr sind für Davidson Bedeutungen und Handlungen partiell voneinander unabhängig (Prinzip der Autonomie der Bedeutung) und beide können daher nicht über ein Set von Regeln miteinander verbunden werden. Kommunikation und Bedeutung plädiert für die Davidsonianische Perspektive, auch wenn man gezwungen ist, Davidsons Argumente zu ergänzen und zum Teil zu revidieren. Insbesondere sein Argument gegen den Konventionalismus in der Bedeutungstheorie muss schwächer gefasst werden, da Regelmäßigkeiten in der Sprachverwendung durchaus als notwendige Bedingungen der Interpretation verstanden werden können.
  11. Knowledge organization and the global information society : Proceedings of the 8th International ISKO Conference 13-16 July 2004, London, UK (2004) 0.01
    0.012993357 = product of:
      0.04547675 = sum of:
        0.038316716 = weight(_text_:interpretation in 3356) [ClassicSimilarity], result of:
          0.038316716 = score(doc=3356,freq=4.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.17900561 = fieldWeight in 3356, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.015625 = fieldNorm(doc=3356)
        0.007160033 = product of:
          0.014320066 = sum of:
            0.014320066 = weight(_text_:22 in 3356) [ClassicSimilarity], result of:
              0.014320066 = score(doc=3356,freq=4.0), product of:
                0.13085791 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.037368443 = queryNorm
                0.109432176 = fieldWeight in 3356, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3356)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Content
    Inhalt: Session 1 A: Theoretical Foundations of Knowledge Organization 1 Hanne Albrechtsen, Hans H K Andersen, Bryan Cleal and Annelise Mark Pejtersen: Categorical complexity in knowledge integration: empirical evaluation of a cross-cultural film research collaboratory; Clare Beghtol: Naive classification systems and the global information society; Terence R Smith and Marcia L Zeng: Concept maps supported by knowledge organization structures; B: Linguistic and Cultural Approaches to Knowledge Organization 1 Rebecca Green and Lydia Fraser: Patterns in verbal polysemy; Maria J López-Huertas, MarioBarite and Isabel de Torres: Terminological representation of specialized areas in conceptual structures: the case of gender studies; Fidelia Ibekwe-SanJuan and Eric SanJuan: Mining for knowledge chunks in a terminology network Session 2 A: Applications of Artificial Intelligence and Knowledge Representation 1 Jin-Cheon Na, Haiyang Sui, Christopher Khoo, Syin Chan and Yunyun Zhou: Effectiveness of simple linguistic processing in automatic sentiment classification of product reviews; Daniel J O'Keefe: Cultural literacy in a global information society-specific language: an exploratory ontological analysis utilizing comparative taxonomy; Lynne C Howarth: Modelling a natural language gateway to metadata-enabled resources; B: Theoretical Foundations of Knowledge Organization 2: Facets & Their Significance Ceri Binding and Douglas Tudhope: Integrating faceted structure into the search process; Vanda Broughton and Heather Lane: The Bliss Bibliographic Classification in action: moving from a special to a universal faceted classification via a digital platform; Kathryn La Barre: Adventures in faceted classification: a brave new world or a world of confusion? Session 3 A: Theoretical Foundations of Knowledge Organization 3 Elin K Jacob: The structure of context: implications of structure for the creation of context in information systems; Uta Priss: A semiotic-conceptual framework for knowledge representation Giovanni M Sacco; Accessing multimedia infobases through dynamic taxonomies; Joseph T Tennis: URIS and intertextuality: incumbent philosophical commitments in the development of the semantic web; B: Social & Sociological Concepts in Knowledge Organization Grant Campbell: A queer eye for the faceted guy: how a universal classification principle can be applied to a distinct subculture; Jonathan Furner and Anthony W Dunbar: The treatment of topics relating to people of mixed race in bibliographic classification schemes: a critical ace-theoretic approach; H Peter Ohly: The organization of Internet links in a social science clearing house; Chern Li Liew: Cross-cultural design and usability of a digital library supporting access to Maori cultural heritage resources: an examination of knowledge organization issues; Session 4 A: Knowledge Organization of Universal and Special Systems 1: Dewey Decimal Classification Sudatta Chowdhury and G G Chowdhury: Using DDC to create a visual knowledge map as an aid to online information retrieval; Joan S Mitchell: DDC 22: Dewey in the world, the world in Dewey; Diane Vizine-Goetz and Julianne Beall: Using literary warrant to define a version of the DDCfor automated classification services; B: Applications in Knowledge Representation 2 Gerhard J A Riesthuis and Maja Zumer: FRBR and FRANAR: subject access; Victoria Frâncu: An interpretation of the FRBR model; Moshe Y Sachs and Richard P Smiraglia: From encyclopedism to domain-based ontology for knowledge management: the evolution of the Sachs Classification (SC); Session 5 A: Knowledge Organization of Universal and Special Systems 2 Ágnes Hajdu Barát: Knowledge organization of the Universal Decimal Classification: new solutions, user friendly methods from Hungary; Ia C McIlwaine: A question of place; Aida Slavic and Maria Inês Cordeiro: Core requirements for automation of analytico-synthetic classifications;
    B: Applications in Knowledge Representation 3 Barbara H Kwasnik and You-Lee Chun: Translation of classifications: issues and solutions as exemplified in the Korean Decimal Classification; Hur-Li Lee and Jennifer Clyde: Users' perspectives of the "Collection" and the online catalogue; Jens-Erik Mai: The role of documents, domains and decisions in indexing Session 6 A: Knowledge Organization of Universal and Special Systems 3 Stella G Dextre Clarke, Alan Gilchrist and Leonard Will: Revision and extension of thesaurus standards; Michèle Hudon: Conceptual compatibility in controlled language tools used to index and access the content of moving image collections; Antonio Garcia Jimdnez, Félix del Valle Gastaminza: From thesauri to ontologies: a case study in a digital visual context; Ali Asghar Shiri and Crawford Revie: End-user interaction with thesauri: an evaluation of cognitive overlap in search term selection; B: Special Applications Carol A Bean: Representation of medical knowledge for automated semantic interpretation of clinical reports; Chew-Hung Lee, Christopher Khoo and Jin-Cheon Na: Automatic identification of treatment relations for medical ontology learning: an exploratory study; A Neelameghan and M C Vasudevan: Integrating image files, case records of patients and Web resources: case study of a knowledge Base an tumours of the central nervous system; Nancy J Williamson: Complementary and alternative medicine: its place in the reorganized medical sciences in the Universal Decimal Classification; Session 7 A: Applications in Knowledge Representation 4 Claudio Gnoli: Naturalism vs pragmatism in knowledge organization; Wouter Schallier: On the razor's edge: between local and overall needs in knowledge organization; Danielle H Miller: User perception and the online catalogue: public library OPAC users "think aloud"; B: Knowledge Organization in Corporate Information Systems Anita S Coleman: Knowledge structures and the vocabulary of engineering novices; Evelyne Mounier and Céline Paganelli: The representation of knowledge contained in technical documents: the example of FAQs (frequently asked questions); Martin S van der Walt: A classification scheme for the organization of electronic documents in small, medium and micro enterprises (SMMEs); Session 8 A: Knowledge Organization of Non-print Information: Sound, Image, Multimedia Laura M Bartoto, Cathy S Lowe and Sharon C Glotzer: Information management of microstructures: non-print, multidisciplinary information in a materials science digital library; Pauline Rafferty and Rob Hidderley: A survey of Image trieval tools; Richard P Smiraglia: Knowledge sharing and content genealogy: extensiog the "works" model as a metaphor for non-documentary artefacts with case studies of Etruscan artefacts; B: Linguistic and Cultural Approaches to Knowledge Organization 2 Graciela Rosemblat, Tony Tse and Darren Gemoets: Adapting a monolingual consumer health system for Spanish cross-language information retrieval; Matjaz Zalokar: Preparation of a general controlled vocabulary in Slovene and English for the COBISS.SI library information system, Slovenia; Marianne Dabbadie, Widad Mustafa El Hadi and Francois Fraysse: Coaching applications: a new concept for usage testing an information systems. Testing usage an a corporate information system with K-Now; Session 9 Theories of Knowledge and Knowledge Organization Keiichi Kawamura: Ranganathan and after: Coates' practice and theory; Shiyan Ou, Christopher Khoo, Dion H Goh and Hui-Ying Heng: Automatic discourse parsing of sociology dissertation abstracts as sentence categorization; Iolo Jones, Daniel Cunliffe, Douglas Tudhope: Natural language processing and knowledge organization systems as an aid to retrieval
    Footnote
    Das Rahmenthema der Tagung kam aufgrund des vor und nach der ISKO-Konferenz abgehaltenen "UN World Summit an an Information Society" zustande. Im Titel des Buches ist die "globale Wissensgesellschaft" freilich eher irreführend, da keiner der darin abgedruckten Beiträge zentral davon handelt. Der eine der beiden Vorträge, die den Begriff selbst im Titel anführen, beschäftigt sich mit der Konstruktion einer Taxonomie für "cultural literacy" (O'Keefe), der andere mit sogenannten "naiven Klassifikationssystemen" (Beghtol), d.h. solchen, die im Gegensatz zu "professionellen" Systemen von Personen ohne spezifisches Interesse an klassifikatorischen Fragen entwickelt wurden. Beiträge mit "multi-kulti"-Charakter behandeln etwa Fragen wie - kulturübergreifende Arbeit, etwa beim EU-Filmarchiv-Projekt Collate (Albrechtsen et al.) oder einem Projekt zur Maori-Kultur (Liew); - Mehrsprachigkeit bzw. Übersetzung, z.B. der koreanischen Dezimalklassifikation (Kwasnik & Chun), eines auf der Sears ListofSubject Headings basierenden slowenischen Schlagwortvokabulars (Zalokar), einer spanisch-englischen Schlagwortliste für Gesundheitsfragen (Rosemblat et al.); - universelle Klassifikationssysteme wie die Dewey-Dezimalklassifikation (Joan Mitchell über die DDC 22, sowie zwei weitere Beiträge) und die Internationale Dezimalklassifikation (la McIlwaine über Geographika, Nancy Williamson über Alternativ- und Komplementärmedizin in der UDC). Unter den 55 Beiträgen finden sich folgende - aus der Sicht des Rezensenten - besonders interessante thematische "Cluster": - OPAC-orientierte Beiträge, etwa über die Anforderungen bei derAutomatisierung analytisch-synthetischer Klassifikationssysteme (Slavic & Cordeiro) sowie Beiträge zu Benutzerforschung und -verhalten (Lee & Clyde; Miller); - Erschliessung und Retrieval von visuellen bzw. multimedialen Ressourcen, insbesondere mit Ausrichtung auf Thesauri (Hudin; Garcia Jimenez & De Valle Gastaminza; Rafferty & Hidderley); - Thesaurus-Standards (Dextre Clark et al.), Thesauri und Endbenutzer (Shiri & Revie); - Automatisches Klassifizieren (Vizine-Goetz & Beall mit Bezug auf die DDC; Na et al. über methodische Ansätze bei der Klassifizierung von Produktbesprechungen nach positiven bzw. negativen Gefühlsäusserungen); - Beiträge über (hierzulande) weniger bekannte Systeme wie Facettenklassifikation einschliesslich der Bliss-Klassifikation sowie der Umsetzung der Ideen von Ranganathan durch E.J. Coates (vier Vorträge), die Sachs-Klassifikation (Sachs & Smiraglia) sowie M. S. van der Walts Schema zur Klassifizierung elektronischer Dokumente in Klein- und Mittelbetrieben. Auch die übrigen Beiträge sind mehrheitlich interessant geschrieben und zeugen vom fachlichen Qualitätsstandard der ISKO-Konferenzen. Der Band kann daher bibliothekarischen bzw. informationswissenschaftlichen Ausbildungseinrichtungen sowie Bibliotheken mit Sammelinteresse für Literatur zu Klassifikationsfragen ausdrücklich empfohlen werden. Ausserdem darf der nächsten (= neunten) internationalen ISKO-Konferenz, die 2006 in Wien abgehalten werden soll, mit Interesse entgegengesehen werden.
  12. Hubrich, J.: Input und Output der Schlagwortnormdatei (SWD) : Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.01
    0.01263469 = product of:
      0.088442825 = sum of:
        0.088442825 = sum of:
          0.058065377 = weight(_text_:anwendung in 4183) [ClassicSimilarity], result of:
            0.058065377 = score(doc=4183,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.3209477 = fieldWeight in 4183, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
          0.030377446 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
            0.030377446 = score(doc=4183,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.23214069 = fieldWeight in 4183, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
      0.14285715 = coord(1/7)
    
    Abstract
    Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und - in geringerem Maße - hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
    Date
    30. 1.2007 18:22:15
  13. Schweibenz, W.; Thissen, F.: Qualität im Web : Benutzerfreundliche Webseiten durch Usability Evaluation (2003) 0.01
    0.010528908 = product of:
      0.07370235 = sum of:
        0.07370235 = sum of:
          0.048387814 = weight(_text_:anwendung in 767) [ClassicSimilarity], result of:
            0.048387814 = score(doc=767,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.2674564 = fieldWeight in 767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.0390625 = fieldNorm(doc=767)
          0.02531454 = weight(_text_:22 in 767) [ClassicSimilarity], result of:
            0.02531454 = score(doc=767,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.19345059 = fieldWeight in 767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=767)
      0.14285715 = coord(1/7)
    
    Abstract
    Für Webseiten ist, wie für alle interaktiven Anwendungen vom einfachen Automaten bis zur komplexen Software, die Benutzerfreundlichkeit von zentraler Bedeutung. Allerdings wird eine sinnvolle Benutzung von Informationsangeboten im World Wide Web häufig durch "cooles Design" unnötig erschwert, weil zentrale Punkte der Benutzerfreundlichkeit (Usability) vernachlässigt werden. Durch Usability Evaluation kann die Benutzerfreundlichkeit von Webseiten und damit auch die Akzeptanz bei den Benutzern verbessert werden. Ziel ist die Gestaltung von ansprechenden benutzerfreundlichen Webangeboten, die den Benutzern einen effektiven und effizienten Dialog ermöglichen. Das Buch bietet eine praxisorientierte Einführung in die Web Usability Evaluation und beschreibt die Anwendung ihrer verschiedenen Methoden.
    Date
    22. 3.2008 14:24:08
  14. Einführung und Nutzung der Dewey Decimal Classification (DDC) im deutschen Sprachraum : Vorgelegt von der Arbeitsgruppe Klassifikatorische Erschließung im Auftrag der Konferenz für Regelwerksfragen (2000) 0.01
    0.009775815 = product of:
      0.0684307 = sum of:
        0.0684307 = product of:
          0.1368614 = sum of:
            0.1368614 = weight(_text_:anwendung in 3654) [ClassicSimilarity], result of:
              0.1368614 = score(doc=3654,freq=4.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.756481 = fieldWeight in 3654, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3654)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    RSWK
    Deutsches Sprachgebiet / Dewey-Dezimalklassifikation / Anwendung
    Subject
    Deutsches Sprachgebiet / Dewey-Dezimalklassifikation / Anwendung
  15. Neue Medien - neues Lernen? : 4. Buckower Mediengespräche (2001) 0.01
    0.009676432 = product of:
      0.067735024 = sum of:
        0.067735024 = weight(_text_:interpretation in 6359) [ClassicSimilarity], result of:
          0.067735024 = score(doc=6359,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.3164402 = fieldWeight in 6359, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6359)
      0.14285715 = coord(1/7)
    
    Content
    Enthält u.a. die folgenden Beiträge: KÜBLER, H.-D.: Neue Medien - neues Lernen?: Perspektiven und Bedingungen des Lernens mit "neuen Medien". WEIZENBAUM, J.: Die Interpretation macht aus Signalen Informationen: Kinder und Computer. WIEDEMANN, D.: Mediengesellschaft und Medienkompetenz: Herausforderung für Schule und Bildung. CZAJA, D.: Neue Aufgaben für den Jugendschutz: Zum Umgang mit dem Leitmedium Fernsehen. HACKENBERG, H.: Mediales Vertrauen: Wodurch erlangen mediale Zugänge Glaubwürdigkeit?. SCHATTER, G.: Bewegtbild morgen: Zur technologischen Entwicklung der Bildwiedergabe und -speicherung. HASS, U.L.: Elektronische Distribution: Voraussetzung für die Erschließung des Potenzials von Bildungsmedien. EBERLE, A.: DVD "Digital Versatile Disc": Ein neues Format - auch ein neues medienpädagogisches Konzept?. HAUPT, S.: Über den Wert des Eigentums 'Urheberrecht': Kulturelle Vielfalt und ungestillter Schöpferdrang brauchen einen besonderen Schutz. SCHUCHART, F.: Neue Buckower Thesen: Im Mittelpunkt der Mensch? Die Technik? Oder der Konzern?. SCHREYER, A.: Fotos als Bestandteil von Multimedia-Anwendungen: Das digitale Bildarchiv am MPZ Land Brandenburg
  16. McCrank, L.J.: Historical information science : an emerging unidiscipline (2001) 0.01
    0.009676432 = product of:
      0.067735024 = sum of:
        0.067735024 = weight(_text_:interpretation in 1242) [ClassicSimilarity], result of:
          0.067735024 = score(doc=1242,freq=2.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.3164402 = fieldWeight in 1242, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1242)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: JASIST 54(2003) no.1, S.91-92 (L.A. Ennis): "Historical Införmation Science: An Emerging Unidiscipline, the culmination of research and experience begun in the early 1970s, is a massive work in which Lawrence McCrank, Professor of Library and Information Science and Dean of Library and Information Service at Chicago State University, examines, explains, and discusses the interdisciplinary merging of history and information science. Spanning 1,192 pages McCrank argues for a new field of study called Historical Information Science to mesh "equally the subject matter of a historical field of investigation, quantified Social Science and linguistic research methodologies, computer science and technology, and information science . . . " (p. 1). Throughout this bibliographic essay, containing more than 6,000 citations, McCrank demonstrates how history and information science has the potential to compliment euch other. The primary focus of the book is an the access, preservation, and interpretation of historical resources and how information technology affects research methodology in various information settings such as libraries, museums, and archives. The book, however, is highly scholarly and highly theoretical, even philosophical, and not easy to read. Chapters one through five make up the 578 pages of the bibliographic essay portion of the book. Euch chapter is practically a monograph an its own. Although the individual chapters are divided and subdivided into sections the length and complexity of euch chapters combined with the author's verbosity often obscure the chapters' main focus and argument."
  17. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.01
    0.008423126 = product of:
      0.058961883 = sum of:
        0.058961883 = sum of:
          0.03871025 = weight(_text_:anwendung in 1767) [ClassicSimilarity], result of:
            0.03871025 = score(doc=1767,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.21396513 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
          0.020251632 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
            0.020251632 = score(doc=1767,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.15476047 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
      0.14285715 = coord(1/7)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  18. Brühl, B.: Thesauri und Klassifikationen : Naturwissenschaften - Technik - Wirtschaft (2005) 0.01
    0.008423126 = product of:
      0.058961883 = sum of:
        0.058961883 = sum of:
          0.03871025 = weight(_text_:anwendung in 3487) [ClassicSimilarity], result of:
            0.03871025 = score(doc=3487,freq=2.0), product of:
              0.1809185 = queryWeight, product of:
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.037368443 = queryNorm
              0.21396513 = fieldWeight in 3487, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.8414783 = idf(docFreq=948, maxDocs=44218)
                0.03125 = fieldNorm(doc=3487)
          0.020251632 = weight(_text_:22 in 3487) [ClassicSimilarity], result of:
            0.020251632 = score(doc=3487,freq=2.0), product of:
              0.13085791 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.037368443 = queryNorm
              0.15476047 = fieldWeight in 3487, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3487)
      0.14285715 = coord(1/7)
    
    Series
    Materialien zur Information und Dokumentation; Bd.22
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  19. Devlin, K.: ¬Das Mathe-Gen : oder wie sich das mathematische Denken entwickelt und warum Sie Zahlen ruhig vergessen können (2001) 0.01
    0.008380036 = product of:
      0.05866025 = sum of:
        0.05866025 = weight(_text_:interpretation in 4019) [ClassicSimilarity], result of:
          0.05866025 = score(doc=4019,freq=6.0), product of:
            0.21405315 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.037368443 = queryNorm
            0.27404526 = fieldWeight in 4019, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4019)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2002, H.4, S.104-105 (S. Welke): "Wenn es ein Gen für Mathematik-Begabung gäbe, würden die vielen Menschen, denen Mathematik eine Quälerei ist, das vielleicht als Trost empfinden. Dann wären sie ja nicht selbst für ihre schlechten Noten verantwortlich ... Pech gehabt, sagt der Mathematiker, Wissenschaftsjournalist und Sachbuchautor Keith Devlin. Es gibt nämlich gar kein Mathe-Gen. Die Eigenschaften, die den Menschen zum Betreiben von Mathematik befähigen, sind dieselben, die ihm auch Sprechen und abstraktes Denken ermöglichen. Ohne Sprache keine Mathematik. Zur Begründung führt er den Leser auf eine Gedankenreise durch Mathematik, Sprachwissenschaft und Evolutionstheorie. Auf der ersten Station dieser Reise fasst er zusammen, was er bereits in "Muster der Mathematik" (Spektrum Akademischer Verlag, Heidelberg 1998) ausgebreitet hat: Mathematik ist die Wissenschaft von den Mustern - realen oder vorgestellten. Es kann sich um geometrische, logische oder auch grammatische Muster handeln. In einem eigenen Kapitel erläutert Devlin das mit Beispielen aus Geometrie und Gruppentheorie. Zahlen sind nur ein Aspekt unter vielen, und Mathematik beginnt erst da, wo der Zahlensinn aufhört. Darauf bezieht sich der zweite Teil des Untertitels. Und da für Devlin das menschliche Gehirn keine Rechenmaschine ist, sondern ein Apparat zur Mustererkennung, ist es bestens für die Beschäftigung mit Mathematik geeignet. Professionelle Mathematiker denken zwar zweifellos anders als andere Menschen, aber sie haben keine anderen Gehirne. Numerische und algorithmische Kompetenz, die Fähigkeit zu abstrahieren und Bezüge herzustellen, der Sinn für Ursache und Wirkung und damit die Fähigkeit, eine längere Kausalkette zu konstruieren und zu verfolgen, logisches Denken und räumliches Vorstellungsvermögen sind nach Devlin die Fähigkeiten, die den Menschen in die Lage versetzen, Mathematik zu betreiben. Lässt man den ersten und den letzten Punkt dieser Aufzählung fort, dann wird klar, wie Devlin zu seiner Kernaussage von der gemeinsamen Wurzel von Mathematik und Sprache gelangt. - Offline-Denken - Dazu zitiert Devlin ausgiebig Fachleute auf den Gebieten der biologischen und der Sprachevolution und gibt dann seine eigene Interpretation, die von den Erkenntnissen der Fachleute nicht gerade erzwungen, aber doch plausibel gemacht wird. Sprache ist für ihn mehr als bloße Kommunikation. Im Gegensatz zu Protosprachen wie dem - durchaus Information vermittelnden - Schwänzeltanz der Bienen hat sie eine Struktur, eine Grammatik. Nach den Forschungsergebnissen des Linguisten Noam Chomsky und seiner Nachfolger ist die Grundstruktur dieser Grammatik in allen menschlichen Sprachen im Wesentlichen dieselbe. Damit ist belegt, dass allen Menschen eine Fähigkeit zur Musterbildung gemeinsam ist - und damit auch eine Fähigkeit zur Mathematik. Devlin geht noch einen Schritt weiter. Im Gegensatz zur gängigen Ansicht sei Kommunikation nicht die evolutionäre Triebkraft der Entwicklung zur grammatisch strukturierten Sprache, sondern deren Neben- oder Folgeeffekt, ein "Nebenprodukt der Fähigkeit unserer Urahnen, die Welt, in der sie lebten, mehr und mehr zu verstehen - sowohl ihre physische Umgebung als auch ihre zunehmend komplexer werdende soziale Welt". Der entscheidende Entwicklungsschritt zum Verstehen der Welt ist in seinen Augen die Fähigkeit zum "offline- Denken". Gemeint ist die Fähigkeit, äußere Reize zu simulieren, sich eine Vorstellung von - etwa - einem Mammut zu machen, ohne es leibhaftig vor Augen zu haben. In der Folge kann das Gehirn Strukturen, insbesondere eine Grammatik, in der Vorstellung selbst bilden.
    An diesem Punkt der Evolution trennen sich die Wege von Mensch und Tier, und es taucht die Frage auf, wieso der Mensch als einziges Tier diesen Weg gegangen ist. Zunächst stellen ein großes Gehirn und die Fähigkeit des offline-Denkens keinen besonderen Selektionsvorteil dar. Erst als diese Fähigkeit innerhalb einer evolutionsgeschichtlich kurzen Zeitspanne vor ungefähr 200000 bis 75000 Jahren zur Bildung von Sprache und zu komplexeren Denkstrukturen führte, begann der Mensch die Welt zu erobern. Zum Schluss bezieht Devlin seine Interpretation der Sprachevolution auf die Frage, worin sich in Mathematik erfolgreiche Menschen von den erfolglosen unterscheiden. Worüber kommunizieren Menschen am meisten? Nach Devlin sind es Klatsch und Tratsch. Wo liegt hier der Selektionsvorteil? Dem Klatsch liegt ein Interesse am Mitmenschen zu Grunde. Er trägt zum Zusammenhalt der Gruppe bei und war daher ein Überlebensvorteil. Wer ist erfolgreich in Mathematik? Derjenige, der sich für Beziehungen zwischen mathematischen Strukturen interessiert und darüber klatscht. So wie sich andere für die Fußball-Bundesliga interessieren und die Spielergebnisse der letzten zehn Jahre auswendig wissen. Jeder besitzt im Prinzip die gleiche Fähigkeit, Mathematik zu betreiben, wie auch fast jeder an einem Marathonlauf teilzunehmen fähig ist. Entscheidend ist, ob man es will. Dieses nach über 350 Seiten überraschend simple Ergebnis erinnert stark an das amerikanische Glaubensbekenntnis, dass man den Erfolg nur wollen muss. Und genau das hat sich der geplagte Mathematiklehrer, mit desinteressierten Schülern konfrontiert, eigentlich schon immer gedacht. Der eigentliche Gewinn beim Lesen dieses Buches liegt woanders: Man erfährt sehr viel über die Entwicklung des menschlichen Gehirns und seiner Fähigkeit, zu denken und Sprache zu entwickeln. Darüber hinaus lernt man eine originelle Interpretation bekannter Tatsachen der menschlichen Evolution kennen. Dieses Buch bietet mehr, als der Titel verspricht."
  20. Thiele, U.; Kaffka, M.: Farbmanagement : Ein Leitfaden für die praktische Anwendung (2000) 0.01
    0.008295055 = product of:
      0.058065377 = sum of:
        0.058065377 = product of:
          0.116130754 = sum of:
            0.116130754 = weight(_text_:anwendung in 3887) [ClassicSimilarity], result of:
              0.116130754 = score(doc=3887,freq=2.0), product of:
                0.1809185 = queryWeight, product of:
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.037368443 = queryNorm
                0.6418954 = fieldWeight in 3887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.8414783 = idf(docFreq=948, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3887)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    

Authors

Languages

  • d 139
  • e 86
  • m 5
  • es 1
  • More… Less…

Types

  • s 69
  • i 2
  • el 1
  • n 1
  • More… Less…

Subjects

Classifications