Search (14 results, page 1 of 1)

  • × theme_ss:"Information"
  • × type_ss:"el"
  • × year_i:[2000 TO 2010}
  1. Frei, R.: Informationswissenschaftliche Begriffe und Kernprozesse aus Sicht des Radikalen Konstruktivismus (2009) 0.02
    0.016000442 = product of:
      0.048001327 = sum of:
        0.005354538 = weight(_text_:in in 3268) [ClassicSimilarity], result of:
          0.005354538 = score(doc=3268,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.09017298 = fieldWeight in 3268, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3268)
        0.042646788 = weight(_text_:und in 3268) [ClassicSimilarity], result of:
          0.042646788 = score(doc=3268,freq=18.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.4407773 = fieldWeight in 3268, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3268)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Informationswissenschaft beruht auf einer positivistisch-ontologischen Sichtweise, welche eine Realität als beschreib- und erfassbar darstellt. In dieser Arbeit werden die Grundbegriffe und exemplarische Kernprozesse der Informationswissenschaft aus Sicht des Radikalen Konstruktivismus betrachtet, einer Erkenntnistheorie, welche besagt, dass der Mensch seine Wirklichkeit nicht passiv erfährt, sondern aktiv konstruiert. Nach einer kurzen Beschreibung der Informationswissenschaft wird zum Radikalen Konstruktivismus übergeleitet und die daraus folgenden Konsequenzen für Verständigung und Wirklichkeit erläutert. Der konventionellen Anschauung von Daten, Information, Wissen, etc. wird dann diese neue Sichtweise entgegengestellt. Darauf aufbauend werden Informationsverhalten, -pathologien und -prozesse vom radikal-konstruktivistischen Standpunkt aus dargestellt. So sollen der Informationswissenschaft ein breiteres Verständnis für ihren Gegenstandsbereich und zusätzliche Kompetenzen vermittelt werden.
    Content
    Diese Publikation entstand im Rahmen einer Diplomarbeit zum Abschluss als dipl. Informations- und Dokumentationsspezialist FH. Referent: Prof. Dr. Norbert Lang, Korreferent: Dr. Rafael Ball. Vgl. unter: http://www.fh-htwchur.ch/uploads/media/CSI_34_Frei.pdf.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft
  2. Umstätter, W.: ¬Die fundamentale Bedeutung der Informations- und Wissensmessung und ihre Beziehung zum System der Planckeinheiten (2006) 0.02
    0.015061131 = product of:
      0.04518339 = sum of:
        0.0075724614 = weight(_text_:in in 1995) [ClassicSimilarity], result of:
          0.0075724614 = score(doc=1995,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.12752387 = fieldWeight in 1995, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1995)
        0.03761093 = weight(_text_:und in 1995) [ClassicSimilarity], result of:
          0.03761093 = score(doc=1995,freq=14.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.38872904 = fieldWeight in 1995, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1995)
      0.33333334 = coord(2/6)
    
    Abstract
    Das bit als Maß für das Verhältnis von Information, informationstheoretischem Rauschen, a posteriori Redundanz, a priori Redundanz bzw. Wissen, so wie es sich zunächst in den Betrachtungen zur Entropie, aus der Thermodynamik heraus ergeben hat, ist ein weitaus fundamentaleres Maß, als es zunächst aus der Thermodynamik und dem Eta-Theorem Boltzmanns heraus zu erwarten war, weil es uns die Möglichkeit gibt, das Wissen von Lebewesen, und von Systemen mit Künstlicher Intelligenz zu messen und nicht mehr wie bisher nur vergleichend abzuschätzen. Es ist ein Maß für Ordnung bzw. Redundanz und hat nichts mit Energie zu tun. Im Sinne Galileis, das zu messen, was messbar ist, und messbar zu machen, was noch nicht messbar ist, wird die Messbarkeit von Wissen im 21. Jahrhundert, in dem die Wissenschaft der dominierende Faktor der menschlichen Gesellschaft ist, fundamentale Bedeutung erlangen. Das bit ist im Gegensatz zu den klassischen naturwissenschaftlichen Maßsystemen, wie Meter, Kilogramm, Sekunde oder Kelvin nicht mehr ein anthropozentrisches, also vom Menschen beliebig gewähltes Maß, es ist die Konsequenz grundlegender wissenschaftlicher Einsichten des letzten Jahrhunderts über die Bedeutung der Entropie.
  3. Capurro, R.: Skeptisches Wissensmanagement (2003) 0.01
    0.014341701 = product of:
      0.043025102 = sum of:
        0.008834538 = weight(_text_:in in 750) [ClassicSimilarity], result of:
          0.008834538 = score(doc=750,freq=16.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 750, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=750)
        0.034190565 = weight(_text_:und in 750) [ClassicSimilarity], result of:
          0.034190565 = score(doc=750,freq=34.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.35337773 = fieldWeight in 750, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=750)
      0.33333334 = coord(2/6)
    
    Abstract
    "Ich bestreite, dass wir wissen, ob wir etwas wissen oder nicht wissen; noch nicht einmal das wissen wir oder wissen es nicht; noch überhaupt, ob etwas ist oder nichts ist." So lautet die gegenüber dem Sokratischen Nicht-Wissen gesteigerte Skepsis des Metrodor von Chios, eines Schülers des Demokrit, in einem von Cicero tradierten Zitat (Diels/Kranz 1956, B1). Managen läßt sich nur, was ist und wovon wir ein Wissen haben können. Also läßt sich Wissen nicht managen. Skeptisches Wissensmanagement - ein Oxymoron? Demgegenüber steht unsere heutige gewaltige Wissens- und Informationsindustrie und die durch sie mitverursachte dritte industrielle Revolution. Die Industriegesellschaft ist zu einer Wissensindustriegesellschaft geworden. Es steht also nicht nur fest, dass wir wissen, sondern, dass wir viel wissen und wissen können. Die Frage ist nur, wie wir das Wissen und das Wissenkönnen nutzen. Der Skeptiker hat kein Kriterium um wahre von falschen Meinungen zu unterscheiden. Er enthält sich deshalb des Urteils und erreicht damit die innere Ruhe (ataraxia). Er beherrscht, so Friedo Ricken, "die Kunst, 'Erscheinungen' (phainomena) und 'Gedanken' (noumena) einander entgegenzusetzen. Er ist imstande, zu jeder Wahrnehmung eine andere zu finden, die mit der ersten nicht vereinbar ist." (Ricken 1994, 105). Paradoxerweise können wir sagen, dass der Skeptiker ein Manager des Nicht-Wissens ist. Sein Ziel ist, wie schon bei Sokrates, therapeutisch: Er will nämlich vom vorschnellen Urteil sowie vom Dünkel (oiesis) heilen und dafür letztlich, im Unterschied zur sokratischen Heilkunst, den Patienten von der Wahrheitssuche befreien (Ricken 1994, 106-107). Paradox ist auch, dass der Skeptiker zwar den Dogmatiker, der nach sicherer Erkenntnis (episteme) sucht, bekämpft, aber als Ziel seiner Lebenstechnik eine Lebensform anstrebt, bei der der Wert der 'inneren Ruhe' feststeht. Dafür muß er die Wahrheitssuche und die Suche nach Werturteilen aufgeben. Dogmatiker und Skeptiker haben aber etwas gemeinsam, sie kritisieren die Einstellung der bloßen Meinung (doxa). Skeptisches Denken, so Long, "findet sich überall da, wo die Kluft zwischen göttlichem und menschlichem Verstand betont wird." (Long 1995, Sp. 940) Der Skeptiker radikalisiert die Frage des Vertrauens in göttliches Wissen, indem er seine Skepsis auf das menschliche Wissen, sei es im Alltag (doxa) oder in der Wissenschaft (episteme), ausdehnt. Aus der Sicht des Skeptikers ist Wissensmanagement eine Technik, die etwas vorgibt, was sie nicht leisten kann. Ricken stellt das Denken von Peirce, Wittgenstein und Heidegger in die skeptische Tradition, sofern sie nämlich fundamentalistische Ansprüche der mit Descartes einsetzenden neuzeitlichen Philosophie in Frage stellen. Skeptische Argumentationsfiguren, wie die fünf Tropen des Agrippa (ca. 1. Jh. v.Chr.) - der Dissens (diaphonia), der unendliche Regreß, die Relativität des Urteilenden, die Setzung einer Hypothese und der Zirkelschluß -, finden sich teilweise heute wieder zum Beispiel in der Kritik des naiven Realismus durch das 'Münchhausen-Trilemma' eines Hans Albert (Ricken 1994, 161). Die antike Philosophie wiederum reagierte auf den Skeptizismus mit unterschiedlichen Strategien. Dazu gehören zum Beispiel die Platonische Kritik des sensualistischen Seinsbegriffs und die aristotelische Differenzierung der Wissensarten. Im Folgenden soll exemplarisch gezeigt werden, wie in der gegenwärtigen betriebswirtschaftlichen Diskussion um das Wissensmanagement klassische Fragen und Argumentationsfiguren aus den skeptischen und kritischen Traditionen der Hermeneutik und der Wissenschaftstheorie sowie aus der aristotelischen Wissenstypologie zum Ausdruck kommen.
    Content
    Vortrag an der Akademie für Technikfolgenabschätzung am 23.1.2001 sowie bei der 4. Tagung "Wirtschaftsethische Fragen der E-Economy" / Ausschuss für Wirtschaftsethik der Allgemeinen Gesellschaft für Philosophie, 15.-17. November 2001, Stuttgart. Erscheint in: Peter Fischer, Christoph Hubig, Peter Koslowski (Hrsg.): Wirtschaftsethische Fragen der E-Economy. Heidelberg: Physica Verlag 2003, S. 67-85.
  4. Hesse, W.: Informationsbegriff in Natur- und Kulturwissenschaften : Vorlesung/Seminar im WS 2004/05 (2004) 0.01
    0.01414357 = product of:
      0.04243071 = sum of:
        0.008924231 = weight(_text_:in in 3058) [ClassicSimilarity], result of:
          0.008924231 = score(doc=3058,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 3058, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=3058)
        0.03350648 = weight(_text_:und in 3058) [ClassicSimilarity], result of:
          0.03350648 = score(doc=3058,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34630734 = fieldWeight in 3058, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3058)
      0.33333334 = coord(2/6)
    
    Abstract
    Enthält eine Darstellung des semiotischen Tetraeders und das Konzept der FRISCO-Gruppe
  5. Rötzer, F.: Computerspiele verbessern die Aufmerksamkeit : Nach einer Untersuchung von Kognitionswissenschaftlern schulen Shooter-Spiele manche Leistungen der visuellen Aufmerksamkeit (2003) 0.01
    0.014039869 = product of:
      0.042119607 = sum of:
        0.008031808 = weight(_text_:in in 1643) [ClassicSimilarity], result of:
          0.008031808 = score(doc=1643,freq=18.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.13525948 = fieldWeight in 1643, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1643)
        0.0340878 = weight(_text_:und in 1643) [ClassicSimilarity], result of:
          0.0340878 = score(doc=1643,freq=46.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3523156 = fieldWeight in 1643, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1643)
      0.33333334 = coord(2/6)
    
    Abstract
    Jede Art von Tätigkeit, die ein wenig Geschick erfordert, fördert und trainiert körperliche und geistige Leistungen. Es wäre also schon sonderlich, wenn dies bei Computerspielen und gerade den umstrittenen Action- oder Ego-Shooter-Spielen nicht der Fall sein würde. Es ist schwierig, komplexe Verhaltensweisen oder Einstellungen wie Gewaltbereitschaft zu erfassen. Viel leichter lassen sich hingegen Einflüsse von Spielen auf ganz bestimmte, abgrenzbare kognitive Leistungen empirisch feststellen. Und so haben jetzt US-Wissenschaftler nachweisen können, dass Computerspieler im Hinblick auf Aufgaben, die visuelle Aufmerksamkeit erfordern, bis zu 50 Prozent besser sind als Nichtspieler - wenn sie sich an Ballerspielen wie Counter-Strike üben.
    Content
    Wer stundenlang und täglich vor dem Computer sitzt und spielt, trainiert bestimmte Fähigkeiten (und vernachlässigt andere, die verkümmern, was aber schon sehr viel schwieriger nachzuweisen wäre). Computerspiele erfordern, dass deren Benutzer sich beispielsweise aktiv visuell orientieren müssen - und dies schnell sowie mit anhaltender Konzentration. Zudem muss das Gesehene (oder Gehörte) schnell in Reaktionen umgesetzt werden, was senso-motorische Fähigkeiten, also beispielsweise die Koordination von Auge und Hand, fördert. Das aber war nicht Gegenstand der Studie. Nach den Experimenten der Kognitionswissenschaftler vom Center for Visual Sciences an der University of Rochester, New York, lernen die Computerspieler sogar nicht nur die Bewältigung von bestimmten Aufgaben, sondern können das Gelernte auf andere Aufgaben übertragen, wodurch sie allgemein die visuelle Aufmerksamkeit stärken. Untersucht wurden dabei, wie C. Shawn Green und Daphne Bavellier in [[External Link]] Nature schreiben, Personen zwischen 18 und 23 Jahren, die Action-Spiele wie Grand Theft Auto3, Half-Life, Counter-Strike, 007 oder Spider-Man während des letzten halben Jahres mindestens an vier Tagen in der Woche und mindestens eine Stunde am Tag gespielt haben. Darunter befanden sich allerdings keine Frauen! Die Wissenschaftler hatten keine Studentinnen mit der notwendigen Shooter-Spiele--Praxis finden können. Verglichen wurden die Leistungen in den Tests mit denen von Nichtspielern. Zur Kontrolle mussten Nichtspieler - darunter dann auch Frauen - an 10 aufeinander folgenden Tagen jeweils mindestens eine Stunde sich an Shooter-Spielen trainieren, wodurch sich tatsächlich die visuellen Aufmerksamkeitsleistungen steigerten. Das mag schließlich in der Tat bei manchen Aufgaben hilfreich sein, verbessert aber weder allgemein die Aufmerksamkeit noch andere kognitive Fähigkeiten, die nicht mit der visuellen Orientierung und Reaktion zu tun haben. Computerspieler, die Action-Spiele-Erfahrung haben, besitzen beispielsweise eine höhere Aufmerksamkeitskapazität, die sich weit weniger schnell erschöpft wie bei den Nichtspielern. So haben sie auch nach einer anstrengenden Bewältigung von Aufgaben noch die Fähigkeit, neben der Aufgabe Ablenkungen zu verarbeiten. Sie können sich beispielsweise auch längere Zahlenreihen, die den Versuchspersonen kurz auf dem Bildschirm gezeigt werden, merken. Zudem konnten die Spieler ihre Aufmerksamkeit weitaus besser auch in ungewohnten Situationen auf die Erfassung eines räumlichen Feldes erstrecken als Nichtspieler. Dabei mussten zuerst Objekte in einem dichten Feld identifiziert und dann schnell durch Umschalten der Fokussierung ein weiteres Umfeld erkundet werden. Der Druck, schnell auf mehrere visuelle Reize reagieren zu müssen, fördert, so die Wissenschaftler, die Fähigkeit, Reize über die Zeit hinweg zu verarbeiten und "Flaschenhals"-Situationen der Aufmerksamkeit zu vermeiden. Sie sind auch besser in der Lage, von einer Aufgabe zur nächsten zu springen. Wie die Wissenschaftler selbst feststellen, könnte man natürlich angesichts dieser Ergebnisse einwenden, dass die Fähigkeiten nicht mit der Beschäftigung mit Computerspielen entstehen, sondern dass Menschen, deren visuelle Aufmerksamkeit und senso-motorische Koordination besser ist, sich lieber mit dieser Art von Spielen beschäftigen, weil sie dort auch besser belohnt werden als die Ungeschickten. Aus diesem Grund hat man eine Gruppe von Nichtspielern gebeten, mindesten eine Stunde am Tag während zehn aufeinander folgenden Tagen, "Medal of Honor" zu spielen, während eine Kontrollgruppe "Tetris" bekam. Tetris verlangt ganz andere Leistungen wie ein Shooter-Spiel. Der Benutzer muss seine Aufmerksamkeit zu jeder Zeit auf jeweils ein Objekt richten, während die Aufmerksamkeit der Shooter-Spieler auf den ganzen Raum verteilt sein und ständig mit Unvorgesehenem rechnen muss, das aus irgendeiner Ecke auftaucht. Tetris-Spieler müssten also, wenn Aufmerksamkeit spezifisch von Spieleanforderungen trainiert wird, in den Tests zur visuellen Aufmerksamkeit anders abschneiden.
    Tatsächlich waren die "Medal of Honor"-Spieler nach der Trainingsphase bei den Aufgaben, bei denen auch die Langzeitspieler besser abschnitten, den "Tetris"-Spielern und den Nichtspielern überlegen: "Zehn Tage des Trainings mit einem Action-Spiel", so die Wissenschaftler, "reicht aus, um die Fähigkeiten der visuellen Aufmerksamkeit, ihrer räumlichen Verteilung und ihrer zeitlichen Auflösung zu verbessern." Unklar ist jedoch, wie diese Verbesserung zustande kommt. Vielleicht werden durch das Training bestimmte Formen des "Flaschenhalses", die zu einem "Stau" bei der Verarbeitung führen und daher die Leistung herabsetzen, verändert. Möglicherweise aber werden einfach Wahrnehmungs- und Aufmerksamkeitsprozesse beschleunigt, so dass geübte Spieler beispielsweise schneller Reize selektieren können. Vielleicht fördern Spiele zudem das Multitasking, so dass die Trainierten mehr "Aufmerksamkeitsfenster" gleichzeitig offen halten können als Menschen, die sich nicht an Shooter-Spielen üben. Für bestimmte Arbeiten, beispielsweise Autofahren, Fliegen, Überwachen von vielen Monitoren, Beobachtung von Radar, Kontrolle von Menschen und Gepäck an Grenzen, Fernsteuerung von Objekten - oder natürlich für Soldaten oder Terroristen, die sich schnell auf unbekanntem Territorium orientieren, Feinde erkennen und auf diese reagieren müssen, wären also wohl Shooter-Spiele eine gute Übung. Gleichwohl sagen visuelle Fähigkeiten freilich nichts über die Gewaltbereitschaft im wirklichen Leben aus.
  6. Atran, S.; Medin, D.L.; Ross, N.: Evolution and devolution of knowledge : a tale of two biologies (2004) 0.01
    0.009484224 = product of:
      0.028452672 = sum of:
        0.010709076 = weight(_text_:in in 479) [ClassicSimilarity], result of:
          0.010709076 = score(doc=479,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 479, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=479)
        0.017743597 = product of:
          0.035487194 = sum of:
            0.035487194 = weight(_text_:22 in 479) [ClassicSimilarity], result of:
              0.035487194 = score(doc=479,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.23214069 = fieldWeight in 479, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=479)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Anthropological inquiry suggests that all societies classify animals and plants in similar ways. Paradoxically, in the same cultures that have seen large advances in biological science, citizenry's practical knowledge of nature has dramatically diminished. Here we describe historical, cross-cultural and developmental research on how people ordinarily conceptualize organic nature (folkbiology), concentrating on cognitive consequences associated with knowledge devolution. We show that results on psychological studies of categorization and reasoning from "standard populations" fail to generalize to humanity at large. Usual populations (Euro-American college students) have impoverished experience with nature, which yields misleading results about knowledge acquisition and the ontogenetic relationship between folkbiology and folkpsychology. We also show that groups living in the same habitat can manifest strikingly distinct behaviors, cognitions and social relations relative to it. This has novel implications for environmental decision making and management, including commons problems.
    Date
    23. 1.2022 10:22:18
  7. Dewald, U.: Aus den Augen, aber nicht aus dem Sinn : Auch ohne funktionierendes Sehzentrum kann das Gehirn visuelle Informationen aufnehmen (2005) 0.01
    0.008837124 = product of:
      0.026511371 = sum of:
        0.010096614 = weight(_text_:in in 4369) [ClassicSimilarity], result of:
          0.010096614 = score(doc=4369,freq=16.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.17003182 = fieldWeight in 4369, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4369)
        0.016414756 = weight(_text_:und in 4369) [ClassicSimilarity], result of:
          0.016414756 = score(doc=4369,freq=6.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.16965526 = fieldWeight in 4369, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4369)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Gehirn kann auch dann visuelle Informationen aufnehmen, wenn das eigentliche Sehzentrum nicht funktioniert. Das haben Wissenschaftler um Tony Ro von der RiceUniversität in Houston in Tests mit Freiwilligen gezeigt. Die Forscher blockierten dabei den so genannten visuellen Kortex der Probanden für wenige Augenblicke, während sich ihnen auf einem Bildschirm Linien oder farbige Punkte zeigten. Obwohl die Probanden angaben, nichts gesehen zu haben, errieten sie anschließend die gezeigten Symbole in mehr als drei von vier Fällen.
    Content
    "Immer wieder wird von Patienten mit schweren Schäden des Sehzentrums im Gehirn berichtet, in der Lage sind, die Form oder die Position von Gegenständen ungefähr zu erfassen, obwohl sie bewusst gar nichts mehr sehen können. Diesen Effekt konnten die Forscher nun in ihren Tests mit elf Probanden bestätigen. Die Wissenschaftler legten dazu den visuellen Kortex für wenige hundertstel Sekunden mit der so genannten transkraniellen Magnetstimulation (TMS) lahm. Dabei induziert ein starkes magnetisches Feld elektrische Ströme in den Nervenbahnen, so dass die Hirnregion kurzzeitig ihre Funktion nicht mehr erfüllen kann. Gleichzeitig zeigten die Wissenschaftler den Probanden auf einem Monitor wenige tausendstel Sekunden lang entweder grüne oder rote Punkte oder eine horizontale oder vertikale Linie. Alle Probanden gaben anschließend an, nichts gesehen zu haben. Da ihr Sehzentrum blockiert war, konnten sie die Punkte oder Linien zwar mit den Augen aufnehmen, jedoch nicht bewusst wahrnehmen. Als die Forscher sie jedoch aufforderten, die Farbe der Punkte oder die Ausrichtung der Linien zu erraten, lagen die Probanden dennoch meistens richtig: In 75 Prozent der Fälle errieten sie die Lage der Linien, und bei der Farbe der Punkte lag die Trefferquote sogar bei mehr als 80 Prozent. Auch wenn der visuelle Kortex blockiert war, wurden die Informationen dennoch auf unbewusste Weise vom Gehirn erfasst, erläutert Tony Ro die Ergebnisse. Auf weichen Wegen diese auch ohne die Mitarbeit des Sehzentrums in höhere Hirnregionen gelangen, können die Forscher jedoch noch nicht erklären. Die Beobachtungen werfen ein neues Licht auf die Frage, wo und auf welche Weise im Gehirn Bewusstsein entsteht und weiche Bedeutung der immer wieder kontrovers diskutierten unbewussten Wahrnehmung zukommt."
  8. Darnton, R.: Im Besitz des Wissens : Von der Gelehrtenrepublik des 18. Jahrhunderts zum digitalen Google-Monopol (2009) 0.00
    0.004738532 = product of:
      0.02843119 = sum of:
        0.02843119 = weight(_text_:und in 2335) [ClassicSimilarity], result of:
          0.02843119 = score(doc=2335,freq=8.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.29385152 = fieldWeight in 2335, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
      0.16666667 = coord(1/6)
    
    Abstract
    Wie eine gigantische Informationslandschaft tut sich das Internet vor unseren Augen auf. Und seit sich Google im Herbst letzten Jahres mit den Autoren und Verlegern, die die große Suchmaschine wegen Urheberrechtsverletzung verklagt hatten, auf einen Vergleich geeinigt hat, stellt sich die Frage nach der Orientierung im World Wide Web mit neuer Dringlichkeit. Während der letzten vier Jahre hat Google Millionen von Büchern, darunter zahllose urheberrechtlich geschützte Werke, aus den Beständen großer Forschungsbibliotheken digitalisiert und für die Onlinesuche ins Netz gestellt. Autoren und Verleger machten dagegen geltend, dass die Digitalisierung eine Copyrightverletzung darstelle. Nach langwierigen Verhandlungen einigte man sich auf eine Regelung, die gravierende Auswirkungen darauf haben wird, wie Bücher den Weg zu ihren Lesern finden. . . .
  9. Crane, G.; Jones, A.: Text, information, knowledge and the evolving record of humanity (2006) 0.00
    0.001821651 = product of:
      0.010929906 = sum of:
        0.010929906 = weight(_text_:in in 1182) [ClassicSimilarity], result of:
          0.010929906 = score(doc=1182,freq=48.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18406484 = fieldWeight in 1182, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1182)
      0.16666667 = coord(1/6)
    
    Abstract
    Consider a sentence such as "the current price of tea in China is 35 cents per pound." In a library with millions of books we might find many statements of the above form that we could capture today with relatively simple rules: rather than pursuing every variation of a statement, programs can wait, like predators at a water hole, for their informational prey to reappear in a standard linguistic pattern. We can make inferences from sentences such as "NAME1 born at NAME2 in DATE" that NAME more likely than not represents a person and NAME a place and then convert the statement into a proposition about a person born at a given place and time. The changing price of tea in China, pedestrian birth and death dates, or other basic statements may not be truth and beauty in the Phaedrus, but a digital library that could plot the prices of various commodities in different markets over time, plot the various lifetimes of individuals, or extract and classify many events would be very useful. Services such as the Syllabus Finder1 and H-Bot2 (which Dan Cohen describes elsewhere in this issue of D-Lib) represent examples of information extraction already in use. H-Bot, in particular, builds on our evolving ability to extract information from very large corpora such as the billions of web pages available through the Google API. Aside from identifying higher order statements, however, users also want to search and browse named entities: they want to read about "C. P. E. Bach" rather than his father "Johann Sebastian" or about "Cambridge, Maryland", without hearing about "Cambridge, Massachusetts", Cambridge in the UK or any of the other Cambridges scattered around the world. Named entity identification is a well-established area with an ongoing literature. The Natural Language Processing Research Group at the University of Sheffield has developed its open source Generalized Architecture for Text Engineering (GATE) for years, while IBM's Unstructured Information Analysis and Search (UIMA) is "available as open source software to provide a common foundation for industry and academia." Powerful tools are thus freely available and more demanding users can draw upon published literature to develop their own systems. Major search engines such as Google and Yahoo also integrate increasingly sophisticated tools to categorize and identify places. The software resources are rich and expanding. The reference works on which these systems depend, however, are ill-suited for historical analysis. First, simple gazetteers and similar authority lists quickly grow too big for useful information extraction. They provide us with potential entities against which to match textual references, but existing electronic reference works assume that human readers can use their knowledge of geography and of the immediate context to pick the right Boston from the Bostons in the Getty Thesaurus of Geographic Names (TGN), but, with the crucial exception of geographic location, the TGN records do not provide any machine readable clues: we cannot tell which Bostons are large or small. If we are analyzing a document published in 1818, we cannot filter out those places that did not yet exist or that had different names: "Jefferson Davis" is not the name of a parish in Louisiana (tgn,2000880) or a county in Mississippi (tgn,2001118) until after the Civil War.
    Although the Alexandria Digital Library provides far richer data than the TGN (5.9 vs. 1.3 million names), its added size lowers, rather than increases, the accuracy of most geographic name identification systems for historical documents: most of the extra 4.6 million names cover low frequency entities that rarely occur in any particular corpus. The TGN is sufficiently comprehensive to provide quite enough noise: we find place names that are used over and over (there are almost one hundred Washingtons) and semantically ambiguous (e.g., is Washington a person or a place?). Comprehensive knowledge sources emphasize recall but lower precision. We need data with which to determine which "Tribune" or "John Brown" a particular passage denotes. Secondly and paradoxically, our reference works may not be comprehensive enough. Human actors come and go over time. Organizations appear and vanish. Even places can change their names or vanish. The TGN does associate the obsolete name Siam with the nation of Thailand (tgn,1000142) - but also with towns named Siam in Iowa (tgn,2035651), Tennessee (tgn,2101519), and Ohio (tgn,2662003). Prussia appears but as a general region (tgn,7016786), with no indication when or if it was a sovereign nation. And if places do point to the same object over time, that object may have very different significance over time: in the foundational works of Western historiography, Herodotus reminds us that the great cities of the past may be small today, and the small cities of today great tomorrow (Hdt. 1.5), while Thucydides stresses that we cannot estimate the past significance of a place by its appearance today (Thuc. 1.10). In other words, we need to know the population figures for the various Washingtons in 1870 if we are analyzing documents from 1870. The foundations have been laid for reference works that provide machine actionable information about entities at particular times in history. The Alexandria Digital Library Gazetteer Content Standard8 represents a sophisticated framework with which to create such resources: places can be associated with temporal information about their foundation (e.g., Washington, DC, founded on 16 July 1790), changes in names for the same location (e.g., Saint Petersburg to Leningrad and back again), population figures at various times and similar historically contingent data. But if we have the software and the data structures, we do not yet have substantial amounts of historical content such as plentiful digital gazetteers, encyclopedias, lexica, grammars and other reference works to illustrate many periods and, even if we do, those resources may not be in a useful form: raw OCR output of a complex lexicon or gazetteer may have so many errors and have captured so little of the underlying structure that the digital resource is useless as a knowledge base. Put another way, human beings are still much better at reading and interpreting the contents of page images than machines. While people, places, and dates are probably the most important core entities, we will find a growing set of objects that we need to identify and track across collections, and each of these categories of objects will require its own knowledge sources. The following section enumerates and briefly describes some existing categories of documents that we need to mine for knowledge. This brief survey focuses on the format of print sources (e.g., highly structured textual "database" vs. unstructured text) to illustrate some of the challenges involved in converting our published knowledge into semantically annotated, machine actionable form.
  10. Kirk, J.: Theorising information use : managers and their work (2002) 0.00
    0.0018033426 = product of:
      0.010820055 = sum of:
        0.010820055 = weight(_text_:in in 560) [ClassicSimilarity], result of:
          0.010820055 = score(doc=560,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1822149 = fieldWeight in 560, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=560)
      0.16666667 = coord(1/6)
    
    Abstract
    The focus of this thesis is information use. Although a key concept in information behaviour, information use has received little attention from information science researchers. Studies of other key concepts such as information need and information seeking are dominant in information behaviour research. Information use is an area of interest to information professionals who rely on research outcomes to shape their practice. There are few empirical studies of how people actually use information that might guide and refine the development of information systems, products and services.
    Content
    A thesis submitted to the University of Technology, Sydney in fulfilment of the requirements for the degree of Doctor of Philosophy. - Vgl. unter: http://epress.lib.uts.edu.au/dspace/bitstream/2100/309/2/02whole.pdf.
  11. Andersen, J.: Analyzing the role of knowledge organization in scholarly communication : an inquiry into the intellectual foundation of knowledge organization (2004) 0.00
    0.0017848461 = product of:
      0.010709076 = sum of:
        0.010709076 = weight(_text_:in in 2348) [ClassicSimilarity], result of:
          0.010709076 = score(doc=2348,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 2348, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=2348)
      0.16666667 = coord(1/6)
    
  12. Kaser, R.T.: If information wants to be free . . . then who's going to pay for it? (2000) 0.00
    0.0016629322 = product of:
      0.009977593 = sum of:
        0.009977593 = weight(_text_:in in 1234) [ClassicSimilarity], result of:
          0.009977593 = score(doc=1234,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.16802745 = fieldWeight in 1234, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1234)
      0.16666667 = coord(1/6)
    
    Abstract
    I have become "brutally honest" of late, at least according to one listener who heard my remarks during a recent whistle stop speaking tour of publishing conventions. This comment caught me a little off guard. Not that I haven't always been frank, but I do try never to be brutal. The truth, I guess, can be painful, even if the intention of the teller is simply objectivity. This paper is based on a "brutally honest" talk I have been giving to publishers, first, in February, to the Association of American Publishers' Professional and Scholarly Publishing Division, at which point I was calling the piece, "The Illusion of Free Information." It was this initial rendition that led to the invitation to publish something here. Since then I've been working on the talk. I gave a second version of it in March to the assembly of the American Society of Information Dissemination Centers, where I called it, "When Sectors Clash: Public Access vs. Private Interest." And, most recently, I gave yet a third version of it to the governing board of the American Institute of Physics. This time I called it: "The Future of Society Publishing." The notion of free information, our government's proper role in distributing free information, and the future of scholarly publishing in a world of free information . . . these are the issues that are floating around in my head. My goal here is to tell you where my thinking is only at this moment, for I reserve the right to continue thinking and developing new permutations on this mentally challenging theme.
  13. Alexandria proclamation on information literacy and lifelong learning (2005) 0.00
    0.0013303459 = product of:
      0.007982075 = sum of:
        0.007982075 = weight(_text_:in in 4320) [ClassicSimilarity], result of:
          0.007982075 = score(doc=4320,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.13442196 = fieldWeight in 4320, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4320)
      0.16666667 = coord(1/6)
    
    Abstract
    Celebrating this week's confirmation of the site of the Pharos of Alexandria, one of the ancient wonders of the world, the participants in the High Level Colloquium on Information Literacy and Lifelong Learning held at the Bibliotheca Alexandrina on 6-9 November 2005 proclaim that information literacy and lifelong learning are the beacons of the Information Society, illuminating the courses to development, prosperity and freedom.
    Content
    "Information Literacy lies at the core of lifelong learning. It empowers people in all walks of life to seek, evaluate, use and create information effectively to achieve their personal, social, occupational and educational goals. It is a basic human right in a digital world and promotes social inclusion of all nations. Lifelong learning enables individuals, communities and nations to attain their goals and to take advantage of emerging opportunities in the evolving global environment for shared benefit. It assists them and their institutions to meet technological, economic and social challenges, to redress disadvantage and to advance the well being of all.
    Information literacy - comprises the competencies to recognize information needs and to locate, evaluate, apply and create information within cultural and social contexts; - is crucial to the competitive advantage of individuals, enterprises (especially small and medium enterprises), regions and nations; - provides the key to effective access, use and creation of content to support economic development, education, health and human services, and all other aspects of contemporary societies, and thereby provides the vital foundation for fulfilling the goals of the Millennium Declaration and the World Summit on the Information Society; and - extends beyond current technologies to encompass learning, critical thinking and interpretative skills across professional boundaries and empowers individuals and communities. Within the context of the developing Information Society, we urge governments and intergovernmental organizations to pursue policies and programs to promote information literacy and lifelong learning. In particular, we ask them to support. ..."
  14. Korthof, G.: Information Content, Compressibility and Meaning : Published: 18 June 2000. Updated 31 May 2006. Postscript 20 Oct 2009. (2000) 0.00
    8.9242304E-4 = product of:
      0.005354538 = sum of:
        0.005354538 = weight(_text_:in in 4245) [ClassicSimilarity], result of:
          0.005354538 = score(doc=4245,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.09017298 = fieldWeight in 4245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4245)
      0.16666667 = coord(1/6)
    
    Abstract
    In New Scientist issue 18 Sept 1999, "Life force" pp27-30 Paul Davies writes "an apparently random sequence such as 110101001010010111... cannot be condensed into a simple set of instructions, so it has a high information content." (p29). This notion of 'information content' leads to paradoxes. Consider random number generator software. Let it generate 100 and 1000 random numbers. According to the above definition the second sequence of numbers has an information content ten times higher than the first, because its description would be ten times longer. However they are both generated by the same simple set of instructions, so should have exactly the same 'information content'. There is the paradox. It seems clear that this measure of 'information content' misses the point. It measures compressibility of a sequence, not 'information content'. One needs meaning of a sequence to capture information content.