Search (2008 results, page 100 of 101)

  • × type_ss:"m"
  1. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 5134) [ClassicSimilarity], result of:
              0.007074459 = score(doc=5134,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 5134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5134)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
  2. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 5956) [ClassicSimilarity], result of:
              0.007074459 = score(doc=5956,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 5956, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5956)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2 (M. Buzinkay): "Zum Autor: John Battelle ist freischaffender Journalist, Mitbegründer und Redakteur bei Wired sowie in weiteren Medienunternehmen der USA tätig. John Battelle betreibt seinen eigenen Fachblog, es ist unter http://battellemedia.com/ zu erreichen. Zum Inhalt: Die Geschichte der Suche ist so alt wie die der Menschheit - oder so ähnlich. Information und Wissen verschafften uns seit je her den Vorsprung, den wir zum Überleben brauchten, aber diese Ressourcen waren bis zuletzt nur begrenzt verfügbar. Im Zeitalter des Web scheint diese Grenze nicht mehr zu gelten, das Web offeriert 'alles'. John Battelle geht in seinem Buch diesem Mythos der Suche im Web-Zeitalter nach und zeichnet in einer anschaulichen und spannenden Art und Weise eine Geschichte von den Ursprüngen des Internets bis hin zu modernen Suchmaschinen. Er sieht in der Suche ein kulturelles Artefakt, und eine Schnittstelle zwischen Mensch und Maschine. Die Faszination, die Suchmaschinen auf den Autor ausüben, sind augenscheinlich: er bezeichnet ihren Index als Datenbank der Absichten, als die weltgrößte Sammlung an Ideen, Gedanken, Motiven, die die Menschheit je hervorgebracht hat. Durch die Suchbegriffe und die Handlungen, die im Web gesetzt werden, werden Interessen und Bedürfnisse offenbar und gleichzeitig dokumentiert und miteinander verbunden. Googles Zeitgeist ist nur die Spitze des Eisbergs - die Suchmaschinen haben ihre Fühler über uns ausgestreckt. Nach einer ausführlichen Einführung zum Thema Wie funktioniert eine Suchmaschine überhaupt?' erzählt uns Battelle die Geschichten von AltaVista, Yahoo, Google und vielen anderen Web-Pionieren, die es sich zur Aufgabe gemacht haben, das Wissen und die Informationen der Welt zu ordnen und damit auch ihr Geschäft zu machen. In den sehr authentischen Schilderungen gelingt es Battelle zu vermitteln, dass die Geschichte von Google & Co ganz anders hätte verlaufen können. Für europäische Leser sind das die faszinierendsten Seiten des Buches - wie können es zwei Studenten aus ihrem Studentenzimmer schaffen, das halbe Web zu durchleuchten, dann eine Firma zu gründen und innerhalb von fünf Jahren zu einem der mächtigsten Unternehmen der Welt aufzusteigen? Die unglaubliche Geschichte von Google wird an den beiden Gründern Page und Brin aufgehängt. Somit gelingt es Battelle, das einzelne Detail der Google-Story lebendig und nah darzustellen, aber auch viele Einsichten in die Psyche von Google zu präsentieren.
  3. Görnitz, T.; Görnitz, B.: ¬Der kreative Kosmos : Geist und Materie aus Information (2002) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 16) [ClassicSimilarity], result of:
              0.007074459 = score(doc=16,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 16, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=16)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2003, H.10, S.95-96 (S. Stier): "Die Quantentheorie ist die erfolgreichste naturwissenschaftliche Theorie. In keinem einzigen Fall sind ihre Vorhersagen bisher mit den experimentellen Ergebnissen in Widerspruch geraten, und mit enormer Genauigkeit beschreibt sie Phänomene im Bereich der Elementarteilchen, Atome und Moleküle, aber auch im makroskopischen Bereich. Kann diese Theorie auch einen Beitrag zur Erklärung des menschlichen Geistes liefern? Bisher sind derartige Theorien eher als Kuriositäten einzustufen. Die prominenteste stammt von Roger Penrose: Be wusstsein entstehe in den das Gehirn durchziehenden »Mikrotubuli« durch bestimmte informationsverarbeitende Prozesse, die der Auswertung »nicht berechenbarer Funktionen« im Sinne der Mathematik entsprechen und daher für Computer prinzipiell nicht durchführbar sind (siehe die Rezension in Spektrum der Wissenschaft 8/1996, S. 118). Dazu postuliert Penrose eine erweiterte Theorie, in der im Gegensatz zur heutigen Form der Zufall keine Rolle mehr spielt und die auch die seit langem gesuchte Quantentheorie der Gravitation umfasst. Nur dem Ruhm des genialen Wissenschaftlers und Autors Penrose dürfte es zu verdanken sein, dass diese Theorie überhaupt ernsthaft diskutiert wird. Dagegen müssen Thomas Görnitz, Professor für Didaktik der Physik in Frankfurt am Main, und Brigitte Gör nitz, Psychotherapeutin und Dozentin in der Erwachsenenbildung, keinen Ruhm zu Hilfe nehmen, sondern können sich ganz auf die Kraft ihrer Argumente verlassen. Ihre grundlegende Annahme ist: Die allem Sein zu Grunde liegende »Substanz« ist »Information«; sie unterliegt den Gesetzen der Quantentheorie. Fundamental sind demnach nicht bestimmte materielle Einheiten wie etwa Elementarteilchen, sondern das, was unterschieden werden kann. Insbesondere sind geistige Zustände und Materie nur zwei Erscheinungsformen derselben Ur-Sache: »Die Gedanken sind so real wie die Atome«, lautet einer der Kernsätze des Buches. Information wird hier zunächst in ihrem alltäglichen Sinne verstanden: Sie ist »etwas, von dem es nicht prinzipiell unmöglich erscheint, dass es gewusst werden könnte«, und ist nur denkbar zusammen mit einem Begriff oder einer Struktur, deren Bestimmung sie dient. In der einfachsten Form geschieht dies durch jaNein-Entscheidungen, die im Computer durch Bits dargestellt werden. Diese »klassische« Information beruht auf Fakten, ist also das Ergebnis tatsächlicher Ereignisse und wird durch die klassische Physik beschrieben. Nun ist es notwendig, in einigen Bereichen der Natur von der klassischen Physik zur Quantentheorie überzugehen. Dem entspricht ein Übergang zur »Quanteninformation«, welche die zukünftigen Möglichkeiten von Quantenobjekten beschreibt. Eine dieser Möglichkeiten wird zufällig durch ein irreversibles Ereignis, zum Beispiel eine Messung, zu einem Faktum, also zu klassischer Information.
  4. Warner, J.: Humanizing information technology (2004) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 438) [ClassicSimilarity], result of:
              0.007074459 = score(doc=438,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=438)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Content
    An information view of history -- Organs of the human brain, created by the human hand : toward an understanding of information technology -- Information society or cash nexus? : a study of the United States as a copyright haven -- As sharp as a pen : direct semantic ratification in oral, written, and electronic communication -- In the catalogue ye go for men : evaluation criteria for information retrieval systems -- Meta- and object-language for information retrieval research : proposal for a distinction -- Forms of labor in information systems -- W(h)ither information science?
  5. Spitta, T.: Informationswirtschaft : eine Einführung (2006) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 636) [ClassicSimilarity], result of:
              0.007074459 = score(doc=636,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 636, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=636)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in IWP 58(2007) H.5/6, S.382 (W. Ratzek): "Bereits im Vorwort betont Thorsten Spitta - mit Bezug auf Heinen: "Es scheint an der Zeit, den Produktionsfaktor Information als Grundlage wieder in die Betriebswirtschaftslehre aufzunehmen (...)". Dieser Bezug, so Spitta, fehle in fast allen betrieblichen Einführungen. Die Konsequenz darauf sei, dass "Information" keine Basis mehr habe. Dieses Vorhaben weckt natürlich auch das Interesse von BID-Studierenden und -Professional, da offenbar beide Professionen (BID und BWL) das Arbeitsgebiet "Informationswirtschaft" bearbeiten. Ebenfalls im Vorwort stellt Spitta die Rolle von Software und Daten heraus: "Während Software sich mit der Zeit verändert oder ausgetauscht wird, sind die Daten eine langfristig zu pflegende Ressource jedes Unternehmens." Die Qualität der Datenbasis ist, nach Spitta, ein wichtiger Baustein, um ein Unternehmen erfolgreich zu führen. Somit wird das Qualitätsniveau dieser Ressource - ob nun Daten oder Information genannt - zu einem Produktionsfaktor. Etwas, so Spitta, was man nicht kaufen könne wie z.B. Software. Für den BID-Interessierten sollte nun die Frage nach dem Unterschied von Daten und Information folgen. In den Kapiteln 3 "Daten" und 4 "Kommunikation, Information und Wissen" geht Spitta dieser Frage nach. "Daten" werden, wie in der Informatik üblich und durchaus sinnvoll, als Alphabet definiert, das heißt als ein Zeichenvorrat, für den eine Verarbeitungsvorschrift definiert ist. (S. 25-28) Kommunikation ist, vereinfacht dargestellt, dann das Senden und Empfangen von Nachrichten (basierend auf einem mehr oder weniger deckungsgleichen Zeichenvorrat). Die in der betriebswirtschaftlichen Praxis gängige Definition von W. Wittmann, dass Information "zweckorientiertes Wissen" sei, lehnt Spitta ab, "da sie einen unscharfen Begriff durch einen anderen erklärt, der noch unschärfer ist" (S. 45).
  6. Fugmann, R.: ¬Das Buchregister : Methodische Grundlagen und praktische Anwendung (2006) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 665) [ClassicSimilarity], result of:
              0.007074459 = score(doc=665,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 665, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=665)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.186 (J. Bertram): "Bei aller Kritik: Das Buch gemahnt eindrücklich daran, dass ein gutes Register sowohl den Anforderungen einer Entdeckungsrecherche als auch denen einer Erinnerungsrecherche dienlich sein sollte, um es mit Fugmanns Worten auszudrücken. Heißt: Es soll nicht nur denen zugute kommen, die das Buch gelesen haben, sondern eben gerade auch denjenigen, die es nicht gelesen haben. Nicht nur erinnerte Wortlaute sollen mit ihm wieder auffindbar sein, vielmehr soll das Register auch schnelle Antworten auf die Frage ermöglichen, ob ein Buch zum interessierenden Thema Ergiebiges enthält. Und dass für das zweite Anliegen ein Aufwand zu betreiben ist, der über ein reines Stichwortregister hinausgeht, wird von Fugmann anschaulich und überzeugend dargestellt. Auch seinem Wunsch, dass bei der Rezension vor Büchern Vorhandensein und Qualität des Registers (stärkere) Berücksichtigung finden mögen, ist uneingeschränkt zuzustimmen. Dass das vor ihm produzierte Register des Guten zu viel tut, steht auf einem anderen Blatt."
  7. Widén-Wulff, G.: ¬The challenges of knowledge sharing in practice : a social approach (2007) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 727) [ClassicSimilarity], result of:
              0.007074459 = score(doc=727,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 727, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=727)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.4, S.95-97 (O. Oberhauser): "Die Autorin ist Dozentin am Institut für Informationswissenschaft der Åbo Akademi University (Finnland) und vertritt zur Zeit den dort vakanten Lehrstuhl. Ihr vorliegendes Buch geht zumindest teilweise auf einen längeren Forschungsaufenthalt an der Napier University, Edinburgh, zurück, wo die informationswissenschaftlich orientierte Forschung am Centre for Social Informatics, welches zum dortigen Fachbereich Informatik zählt, angesiedelt ist. Social informatics (nicht zu verwechseln mit Sozialinformatik, einem Terminus aus dem Gebiet der Sozialen Arbeit), bezieht sich auf die disziplinübergreifende Beschäftigung mit dem Design, dem Einsatz und der Verwendung von Informations- und Kommunikationstechnologien und ihrer Interaktion mit institutionellen und kulturellen Kontexten unter Einschluss von Institutionen/Organisationen und der Gesellschaft. Sie wird von Vertretern verschiedener Wissenschaftsdisziplinen mit unterschiedlichen Themenstellungen bzw. methodischen Ansätzen betrieben. In diesem Umfeld ist auch das vorliegende Buch beheimatet. Zwar ist "information sharing" ein Begriff, der aus der Forschung zu dem breiteren Themenbereich "information seeking and use" bzw. "(human) information behaviour" stammt, doch macht schon der erste Satz des Vorworts klar, dass hier eine thematische Festlegung auf den institutionellen Bereich und damit eine Einordnung in das Gebiet des Wissensmanagements erfolgt ist: "How can organisations correspond to the current demands of effective information and knowledge sharing?" (p. ix). Die Herausforderungen ("challenges") werden im Hinblick auf das Verständnis, die Organisation und die Verwaltung von Wissen gesehen und in technische, betriebliche, persönliche und soziale Aspekte unterteilt. Die Konzentration auf die soziale Dimension, so die Autorin, sei heute besonders wichtig für eine kohärente Beurteilung von Informationsverhalten und -austausch im Unternehmen.
  8. Bauer, J.: Warum ich fühle, was du fühlst : Intuitive Kommunikation und das Geheimnis der Spiegelneurone (2005) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 1430) [ClassicSimilarity], result of:
              0.007074459 = score(doc=1430,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 1430, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1430)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2006, H.4, S.111-112 (S. Hügler): "Wie kommt es, dass wir das Lächeln einer anderen Person manchmal noch Stunden später in uns tragen? Warum steckt uns schlechte Laune - eines Arbeitskollegen etwa - oft an? Warum spüren wir intuitiv, was unser Partner gerade tut oder empfindet, auch wenn er sich zu dieser Zeit auf der anderen Seite des Erdballs befindet? Die Antwort auf all diese Fragen sieht der Freiburger Internist und Psychiater Joachim Bauer im Wirken der Spiegelneurone. Als Handlungsneurone sitzen sie in der prämotorischen Hirnrinde und feuern, sobald wir etwas Bestimmtes tun. Aber nicht nur dann: Auch wenn wir uns die entsprechende Handlung nur vorstellen oder sie bei jemand anderem beobachten, werden die Nervenzellen aktiv. Entdeckt hat die kleinen Wunderzellen Giacomo Rizzolatti von der Universität Parma Anfang der 1990er. In einem Versuch mit Makaken zeigte sich, dass stets ein bestimmtes Neuron feuerte, wenn unser tierischer Verwandter nach einer Erdnuss griff Und nicht nur das: Auch wenn der Affe eine Person bei gleichem Tun beobachtete oder solches auch nur vermuten konnte, war diese Zelle aktiv. Offenbar, so schlussfolgerten Rizzolatti und seine Kollegen, hatte sie die besondere Aufgabe, nicht nur das eigene Denken, Handeln und Fühlen zu verarbeiten, sondern auch das Tun und die Gefühle anderer zu »spiegeln«. Menschen spüren ähnlich wie Affen, was in anderen vor sich geht, weil bestimmte Nervenzellen bei ihnen genau dieselben Gefühle und Programme auslösen, wie wenn sie sich selbst in dieser Situation befinden. Diese Resonanz sei der Schlüssel zu Empathie, Intuition und zwischenmenschlicher Kommunikation, so die Grundthese des Buches. Bauer schildert Experimente des amerikanischen Forschers Andrew Meltzoff: Bereits nach wenigen lagen fängt ein Säugling an, das Verhalten seiner Eltern zu imitieren. Öffnet die Mutter den Mund, tut dies auch ihr Baby, spitzt sie die Lippen, kräuselt sie auch der Nachwuchs, streckt sie ihm die Zunge heraus, antwortet der Spross mit derselben Mimik. »Zwischen dem Neugeborenen und der Hauptbezugsperson beginnt ... etwas, dessen Zauber nur noch mit der Situation von Frischverliebten zu vergleichen ist.« Denn dieser »Tanz« von Mutter Lind Kind führe zur Ausschüttung körpereigener Opioide und schaffe die Grundlage für emotionale Intelligenz und soziale Identität.
  9. Ratzek, W.: Schwarze Löcher : Im Sog der Informations- und Wissensindustrie (2005) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 1433) [ClassicSimilarity], result of:
              0.007074459 = score(doc=1433,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 1433, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1433)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Information - Wissenschaft & Praxis 56(2005) H.3, S.205 (E. Simon): "Wenn eine ältere Dame, so ab 50 aufwärts einen der großen Mediamärkte in Berlin wie z.B. Mediamarkt oder Saturn mit einem bestimmten Wunsch aufsucht, dessen Formulierung aber nicht auf profundem informationstechnologischem Wissen beruht, dann fällt sie entweder in ein schwarzes Loch oder sie hat den großen Wunsch, falls sie etwas furchtsam ist, dass sich ein großes schwarzes Loch auftut, in dem sie verschwinden kann. In den meisten Fällen wird sie ohne das gewünschte Produkt mit dem leichten Gefühl der Verzweiflung diese informationstechnologischen Kundentempel verlassen. Diese schwarzen Löcher hat der Autor mit seiner Titelwahl nicht gemeint, obwohl "im Sog der Informations- und Wissensindustrie" schon die Hilflosigkeit diese Gefühls trifft, sondern es geht ihm um die Kreation eines Schemas für die Verortung von Informationswissenschaft und Informationswirtschaft. Ratzek stellt fest, dass Informationsarbeit zu einem Ouasi-Monopol von Programmierern, Netzwerkingenieuren und - möchten wir hinzufügen - von unwissenden arroganten Verkäufern und Beratern mutiert, wobei die Leistungen der Informationsfachleute wie Bibliothekaren und der sogenannten Information Professionals zu einer Nebensächlichkeit verkommen. Die Arbeit der Informationsfachleute versteckt sich hinter dem, was der Verfasser "Informatikmimikry" nennt mit den Folgen Entmündigung - das können andere viel besser - und letztendlich Verlust des Image. Diesem können die BID-Professionen nur durch Kampagnen für die Public Awareness begegnen, wie sie in dem vom Autor herausgegebenen Buch Spielball Bibliotheken (Berlin 2004) dargestellt wurden. Außerordentlich erschwerend für die Entwicklung des Faches ist aber, dass alles, "Daten, Information und Wissen in einen Topf geworden wird" und dieser Eintopf dann als "Information" oder, weil es gerade angesagt ist, als "Wissen" serviert wird. Daher lässt Ratzek sich nicht darauf ein, den Gegensatz oder die Kongruenz zwischen Information und Wissen näher zu definieren, wie es z.B. in der angelsächsischen Literatur vorherrschend war und immer noch ist, wenn auch damit eine mehr auf case work oder Managementaufgaben im angelsächsischen Sinne gerichtete Blickrichtung gemeint ist, wie es z.B. in dem ausgezeichnet einsetzbaren Buch von Angela Abell und Nigel Oxbrow: Competing with Knowledge, The Information professional in the Knowledge Management Age. (tfpl/LA 1999) deutlich wird. Der Ansatz von Ratzek ist wissenschaftlich und dabei transdisziplinär. Er gibt nicht nur einen profunden Überblick über den Stand der Informationswissenschaft als Ausbildungsdisziplin, sondern er zieht auch die Entwicklungslinien z.B. zu den Grundlagen der Semiotik als Basis unserer durch das Icon beherrschten Informationsumwelt. Er setzt sich auch mit der Theorienbildung durch Gernot Wersig und Rainer Kuhlen auseinander und man würde sich diese knappen und präzisen Ausführungen in die Köpfe mancher Politiker wünschen, die heute noch einem diffusen Bildungsbegriff nachhängen, ohne die dafür notwendige Informationsinfrastruktur im Blick zu haben: So zitiert Ratzek nach Wersig:
  10. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 1443) [ClassicSimilarity], result of:
              0.007074459 = score(doc=1443,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 1443, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1443)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
  11. Schmeh, K.: ¬Die WeIt der geheimen Zeichen : die faszinierende Geschichte der Verschlüsselung (2004) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 1445) [ClassicSimilarity], result of:
              0.007074459 = score(doc=1445,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 1445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1445)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in Spektrum der Wissenschaft 2005, H.3, S.104-106 (J. Müller-Quade) "Schon nach 30 Seiten kann kein Leser mehr ernsthaft an der Wichtigkeit der Kryptografie zweifeln. Geheimschriften waren schon im 19. Jahrhundert kriegsentscheidend, und das Entschlüsseln geheimer Botschaften hat sogar geholfen, ein Rätsel der Geschichtswissenschaften zu lösen. Das Buch gliedert 3500 Jahre Kryptografiegeschichte in drei Epochen. Deren erste, die Zeit der Verschlüsselung von Hand, überspannt den längsten Zeitraum, von der Antike bis zum Ersten Weltkrieg, nimmt aber in dem Buch den geringsten Platz ein, denn außer ein paar spannenden Geschichten gibt es zum Fortschritt der Kryptografie aus dieser Zeit nicht viel zu berichten. In der zweiten Epoche, dem Zeitalter der Verschlüsselungsmaschinen, überschlagen sich dagegen die Ereignisse. Eine Hauptrolle spielt dabei die legendäre deutsche Chiffriermaschine »Enigma«, die im Zweiten Weltkrieg von den Briten entschlüsselt wurde. Nach allgemein akzeptierter Meinung haben die Deutschen an der Sicherheit der Enigma nie gezweifelt, weswegen dreißig Jahre später die Nachricht von der Entschlüsselung sie wie ein Schock traf (Spektrum der Wissenschaft 6/1999, S. 26). Umso eindrucksvoller ist der Abschnitt »Hitlers letzte Maschinen« in Schmehs Buch, demzufolge diese Meinung in ihrer Allgemeinheit wahrscheinlich falsch ist. Die Epoche der Verschlüsselungsmaschinen zieht sich mit einigen spannenden Episoden bis in den Kalten Krieg hinein. Die dritte Epoche ist die der Verschlüsselung mit dem Computer und einer ihrer Höhepunkte die Lösung des Schlüsselaustauschproblems, etwa durch die scheinbar paradoxe Kryptografie mit veröffentlichtem Schlüssel (public key cryptography). Das Public-Key-Verfahren RSA dient als Beispiel für eine Funktion, deren Umkehrung nur mit einer »Falltür« (einer geheimen Zusatzinformation) möglich ist. Allerdings wird es in dieser Rohform heute nicht mehr angewandt. Vielmehr werden Nachrichten geschickt mit Zufallsdaten aufgefüllt, damit nicht gleiche Klartexte deterministisch immer auf denselben Chiffretext abgebildet werden. Selbst wenn der Angreifer schon einmal ein verschlüsseltes »ja« am Anfang eines Textes gesehen hat, kann er dasselbe Wort an derselben Stelle nicht wiedererkennen. Eine kleine Unstimmigkeit bei dem Zahlenbeispiel in der Box stört die Erklärung nicht. In einigen Kapiteln geht das Buch auch über das eigentliche Thema Verschlüsselungsverfahren hinaus. So ist die digitale Unterschrift eine völlig neue Anwendung der altehrwürdigen Kryptografie. Schmeh bringt an dieser Stelle nicht nur die technischen Aspekte, sondern auch die interessanten rechtlichen und politischen Konsequenzen der digitalen Signatur. Beim gesellschaftlichen Aspekt der Kryptografie bespricht das Buch so aktuelle Ereignisse, dass die geschichtliche Darstellung in den Hintergrund tritt.
  12. Machate, J.; Burmester, M.: User-Interface-Tunig : Benutzungsschnittstellen menschlich gestalten (2003) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 1793) [ClassicSimilarity], result of:
              0.007074459 = score(doc=1793,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 1793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1793)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Nfd 55(2004) H.6, S.375-376 (R. Mangold): "Unser Alltag ist voll von mechanischen, elektronischen und digitalen Geräten, die alle bedient werden wollen, deren Bedienung jedoch angesichts übergroßer Komplexität und mangelnder Übersichtlich keit des User-Interfaces den Benutzer bisweilen überfordern. User-InterfaceTuning ist eine stark anwendungsorientierte Forschungsrichtung, in der auf der Grundlage ergonomischer, psychologischer, arbeitswissenschaftlicher und informationstechnischer Erkenntnisse Prinzipien und Regeln formuliert werden, wie Mensch-Geräte-Schnittstellen (= Interfaces) gestaltet sein müssen, um ein effektives, effizientes und zufriedenstellendes Bedienen aller Funktionen der Geräte zu ermöglichen. Wer auch immer sich beruflich oder privat mit der Gestaltung solcher Interfaces befasst, indem er entweder selbst am Schnittstellendesign beteiligt ist oder indem er solche Schnittstellen im Einsatz evaluiert und Kritiken bzw. Verbesserungsvorschläge formuliert, an den richtet sich dieses von Joachim Machate und Michael Burmester im Software & Support Verlag 2003 herausgegebene Buch. Dass die beiden Herausgeber schon seit Jahren Profis im Geschäft des User-Interface-Design sind, zeigt sich auch an der Auswahl und Zusammenstellung der Kapitel. Im Buch wird Grundlagenwissen zur ergonomischen Gestaltung von User-Interfaces ergänzt und veranschaulicht durch Anwendungsbeispiele aus unterschiedlichen Bereichen. Im ersten Kapitel "Usability - die unterschätzte Qualität" begründen die Herausgeber, warum es sich nicht nur aus arbeitswissenschaftlicher und psychologischer, sondern auch aus ökonomischer Sicht lohnt, den zusätzlichen Aufwand nicht zu scheuen und Prinzipien der Usability beim InterfaceDesign zu beachten bzw. im Rahmen von Usability-Tests im Nachhinein die Benutzungsfreundlichkeit zu überprüfen. Besonders lesenswert fand ich den zweiten Aufsatz von Marc Hassenzahl, der die Frage aufwirft, warum Nutzer zwar oftmals über die mangelnde Bedienungsfreundlichkeit vieler Office-Programme klagen und nicht freiwillig die Arbeit mit einem solchen Programm fortsetzen würden, sich andererseits aber in der Freizeit über viele Stunden hinweg mit hoher Motivation und Konzentration mit einem Computerspiel befassen. Möglicherweise ließen sich Fortschritte beim User-Interface-Design erzielen, wenn es nur gelänge, durch eine Übertragung von Gestaltungsprinzipien bei Spielen auf die Interfaces von "Arbeitssoftware" auch nur ein wenig von der großen Begeisterung für Spiele einzufangen. Im dritten Kapitel arbeiten Michael Burmester und Claus Görner die zentralen Elemente des benutzerzentrierten Gestaltens heraus: Gestaltung ist ein zeitlich ausgedehnter Prozess, bei dem fortlaufend optimiert wird und in dessen Zentrum der Benutzer mit seinen bedienungsrelevanten Eigenheiten steht. Hierbei soll eine empirisch-methodische Vorgehensweise gewährleisten, dass brauchbare gestaltungsrelevante Hinweise und Daten gewonnen werden: Je intensiver die Anforderungen und der Nutzungskontext analysiert werden, desto erfolgreiche kann eine benutzerzentrierte Gestaltung sein, wie Andreas Beu im vierten Kapitel hervorhebt. Wenn der Benutzer noch stärker in den Mittelpunkt rückt, wird er schließlich bei der partizipativen Schnittstellengestaltung zum Mitwirkenden; die dabei zu beachtenden Besonderheiten beschreibt Joachim Machate im fünften Kapitel. Und zum Ende eines Designprozesses sollte man im Rahmen einer Evaluation überprüfen, ob das User-Interface auch "wirklich gut" ist, wie Michael Burmester in der Überschrift zum sechsten Kapitel die Frage formuliert. Dieses Kapitel stellt eine gute Übersicht zu den verfügbaren Evaluationsverfahren und den Randbedingungen einer systematischen Bewertung der angestrebten Wirkungen dar.
  13. Web 2.0 in der Unternehmenspraxis : Grundlagen, Fallstudien und Trends zum Einsatz von Social-Software (2009) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 2917) [ClassicSimilarity], result of:
              0.007074459 = score(doc=2917,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 2917, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2917)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: IWP 60(1009) H.4, S.245-246 (C. Wolff): "Der von Andrea Back (St. Gallen), Norbert Gronau (Potsdam) und Klaus Tochtermann herausgegebene Sammelband "Web 2.0 in der Unternehmenspraxis" verbindet in schlüssiger Weise die systematische Einführung in die Themen Web 2.0 und social software mit der Darstellung von Möglichkeiten, solche neuen Informationssysteme für Veränderungen im Unternehmen zu nutzen und zeigt dies anhand einer ganzen Reihe einzelner Fallstudien auf. Auch zukünftige Anwendungen wie das social semantic web werden als Entwicklungschance erörtert. In einer knappen Einleitung werden kurz die wesentlichen Begriffe wie Web 2.0, social software oder "Enterprise 2.0" eingeführt und der Aufbau des Bandes wird erläutert. Das sehr viel umfangreichere zweite Kapitel führt in die wesentlichen Systemtypen der social software ein: Erläutert werden Wikis, Weblogs, Social Bookmarking, Social Tagging, Podcasting, Newsfeeds, Communities und soziale Netzwerke sowie die technischen Besonderheiten von social software. Die Aufteilung ist überzeugend, für jeden Systemtyp werden nicht nur wesentliche Funktionen, sondern auch typische Anwendungen und insbesondere das Potenzial zur Nutzung im Unternehmen, insbesondere mit Blick auf Fragen des Wissensmanagements erläutert. Teilweise können die Autoren auch aktuelle Nutzungsdaten der Systeme ergänzen. Auch wenn bei der hohen Entwicklungsdynamik der social software-Systeme ständig neue Formen an Bedeutung gewinnen, vermag die Einteilung der Autoren zu überzeugen.
  14. EndNote X1 (2007) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 2928) [ClassicSimilarity], result of:
              0.007074459 = score(doc=2928,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 2928, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2928)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Mitteilungen VOEB 61(2008) H.1, S.110-112 (O. Oberhauser): "In Heft 4/2006 dieser Zeitschrift wurde die zehnte Ausgabe ("X") des bewährten Literaturverwaltungsprogramms EndNote besprochen. 2007 kam die vorliegende, elfte Version auf den Markt, diesmal mit der leicht postmodern anmutenden Zählung "X1", die sich nach der Implementierung eines kürzlich erschienenen Updates als "X1.0.1" liest. Die neue Version ist der vorhergehenden grundsätzlich ähnlich, verfügt aber über einige interessante zusätzliche Features, die im Folgenden kurz behandelt werden sollen. Eine Gruppe dieser Neuerungen betrifft die in der EndNote-Diktion als "library window" bezeichnete Kurztitelliste. In dieser ist es erstens nunmehr möglich, pro EndNote-Bibliothek bis zu 500 individuell definierbare "Gruppen" zu erstellen, denen z.B. einzelne oder mehrere ausgewählte Datensätze, aber auch Ergebnisse einer Suche in der betreffenden Bibliothek oder eine Menge importierter Datensätze zugeordnet werden können. Diese Gruppen bleiben über das Ende einer Sitzung hinweg erhalten, können aber stets leicht wieder verändert (erweitert, reduziert, umbenannt bzw. gelöscht) werden. Ein und derselbe Eintrag kann bei Bedarf auch verschiedenen Gruppen zugeordnet werden. Wenn die Spalte, in der die Gruppen aufgelistet werden (und in der zwischen der Anzeige aller Datensätze und jener einer bestimmten Gruppe hin- und hergewechselt werden kann), gerade nicht benötigt wird, kann sie mit einem in der Werkzeugleiste plazierten Icon weggeklickt werden. Ich selbst habe mit dem Gruppen-Feature bereits gute Erfahrungen gemacht, z.B. zur (temporären) Zusammenfassung von thematisch ähnlichen Einträgen, zur Zusammenführung von Vorträgen einer bestimmten Konferenz sowie zur Markierung von dringend zu beschaffender Originalliteratur. Zur Verbesserung der Kurztitelliste gehört zweitens die Option, in der Autorenspalte alle Verfasser einer Publikation (nicht nur die jeweils ersten) samt ihren Vornamen bzw. Initialen aufscheinen zu lassen. Dies ist nicht nur bei Namensgleichheit von Vorteil, sondern macht auch die Unterschiede in der Sortierung von Ein- und Mehrverfasserpublikationen transparenter und erscheint mir daher als höchst willkommene Änderung. Drittens kann jetzt, mit Hilfe eines per rechter Maustaste aufrufbaren Menüs, direkt aus der Kurztitelliste heraus der zu einem jeweiligen Datensatz gespeicherte Volltext aufgerufen bzw. eine katalogisierte Web-Adresse (URL) geöffnet werden. Während ersteres im Fall meiner Datenbank problemlos funktioniert, scheitert das URL-Öffnen an meiner Gepflogenheit, zu einer Web-Adresse auch das Zugriffsdatum festzuhalten. So wird beim Aufruf aus der Kurzanzeige z. B. der katalogisierte Eintrag
  15. Good tags - bad tags : Social Tagging in der Wissensorganisation (2008) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 3054) [ClassicSimilarity], result of:
              0.007074459 = score(doc=3054,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 3054, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3054)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Enthält die Beiträge der Tagung "Social Tagging in der Wissensorganisation" am 21.-22.02.2008 am Institut für Wissensmedien (IWM) in Tübingen. Volltext unter: http://www.waxmann.com/kat/inhalt/2039Volltext.pdf. Vgl. die Rez. unter: http://sehepunkte.de/2008/11/14934.html. Rez. in: IWP 60(1009) H.4, S.246-247 (C. Wolff): "Tagging-Systeme erfreuen sich in den letzten Jahren einer ungemein großen Beliebtheit, erlauben sie dem Nutzer doch die Informationserschließung "mit eigenen Worten", also ohne Rekurs auf vorgegebene Ordnungs- und Begriffsysteme und für Medien wie Bild und Video, für die herkömmliche Verfahren des Information Retrieval (noch) versagen. Die Beherrschung der Film- und Bilderfülle, wie wir sie bei Flickr oder YouTube vorfinden, ist mit anderen Mitteln als dem intellektuellen Einsatz der Nutzer nicht vorstellbar - eine professionelle Aufbereitung angesichts der Massendaten (und ihrer zu einem großen Teil auch minderen Qualität) nicht möglich und sinnvoll. Insofern hat sich Tagging als ein probates Mittel der Erschließung herausgebildet, das dort Lücken füllen kann, wo andere Verfahren (Erschließung durch information professionals, automatische Indexierung, Erschließung durch Autoren) fehlen oder nicht anwendbar sind. Unter dem Titel "Good Tags - Bad Tags. Social Tagging in der Wissensorganisation" und der Herausgeberschaft von Birgit Gaiser, Thorsten Hampel und Stefanie Panke sind in der Reihe Medien in der Wissenschaft (Bd. 47) Beiträge eines interdisziplinären Workshops der Gesellschaft für Medien in der Wissenschaft zum Thema Tagging versammelt, der im Frühjahr 2008 am Institut für Wissensmedien in Tübingen stattgefunden hat. . . .
  16. Blumenberg, H.: ¬Die Lesbarkeit der Welt (1983) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 3205) [ClassicSimilarity], result of:
              0.007074459 = score(doc=3205,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 3205, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3205)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
  17. Library mashups : exploring new ways to deliver library data (2009) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 3281) [ClassicSimilarity], result of:
              0.007074459 = score(doc=3281,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 3281, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3281)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Mitt. VÖB 62(2009) H.4, S.83-85 (S. Breitling): "Jede/r Web-Nutzer/in ist einem Mashup schon einmal begegnet. Mashups sind Webapplikationen bzw. -seiten, die Daten und Funktionalität aus zwei oder mehr frei zugänglichen Quellen zu einem neuen Service auf einer eigenen Webseite kombinieren. Dieser Dienst bietet einen Mehrwert für die Nutzerinnen durch Zusammenführung und Verknüpfung von Informationen an einem zentralen Ort. Z.B. werden sehr häufig Karten in Standortangaben eingebunden, oder im Bibliothekskatalog werden Amazon-Buchcover oder ein Link auf Google Book Search angezeigt. Darüber hinaus gibt es jedoch eine Vielzahl von Möglichkeiten, kreativ Mashups für den Bibliotheksbereich zu entwickeln, wie das vorliegende Werk "Library Mashups - exploring new ways to deliver library data" eindrucksvoll beweist. Nicole C. Engard, die als Open-Source-Botschafterin in der Bibliothekswelt für den Einsatz dieser Software-Palette als integrierte Bibliothekssysteme (Koha, Evergreen) wirbt, konnte als Herausgeberin so bekannte Personen gewinnen wie Tim Spalding, Gründer von LibraryThing, oder aus dem deutschsprachigen Bereich Wolfram Schneider, Entwickler des Z39.50-Dienstes ZACK.
  18. Stöcklin, N.: Wikipedia clever nutzen : in Schule und Beruf (2010) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 4531) [ClassicSimilarity], result of:
              0.007074459 = score(doc=4531,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 4531, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4531)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Mitt. VÖB 64(2011) H.1, S. 153-155 (K Niedermair): "Vor einigen Wochen war in der Wochenzeitung Die Zeit ein dreiseitiger Beitrag über die gerade 10 Jahre alt gewordene Wikipedia zu lesen, unter dem Titel "Das größte Werk der Menschen": Wie könnte Wikipedia dieses Prädikat verdienen? Wohl schon aufgrund der Quantitäten: Die freie Enzyklopädie Wikipedia ist, seit sie am 15. Jänner 2001 online ging, extrem gewachsen, es gibt Plattformen in den meisten Sprachen, mit sehr viel Content, am meisten natürlich in der englischsprachigen Version, nämlich über drei Millionen Beiträge, auch die deutschsprachige ist beachtlich vertreten mit ca. einer Million. Wikipedia ist zu einer wichtigen Informationsquelle geworden, im Alltag, im Beruf, im Lehr- und Wissenschaftsbetrieb, dies zeigen immer wieder Befragungen von Studierenden und Wissenschaftler/innen. Verdienstvoll ist Wikipedia auch, weil sie nicht auf Gewinn orientiert ist, auf Werbeeinnahmen verzichtet. Wikipedia lebt vom Idealismus unzähliger freiwilliger Mitarbeiter/innen, die nicht um Geld, sondern aus Freude an der Arbeit gemeinsam dem großen Ziel verpflichtet sind, Wissen zu sammeln, zu ordnen und bereitzustellen - und zwar kostenlos für alle zu jeder Zeit und an jedem Ort. Es ist wohltuend, dass dieses Programm einer universalen Enzyklopädia publico in der kommerzialisierten Wirklichkeit des Internet überleben konnte und dass Erfolg und Wachstum im Internet nicht immer mit Geld zu tun haben müssen, wie es Google, Facebook usw. nahelegen, deren Gründer bekanntlich inzwischen Milliardäre sind. Und Wikipedia ist insofern ein starkes Argument gegen die landläufige These, dass Information nur brauchbar ist, wenn sie etwas kostet: Qualitätssicherung von Information hängt nicht zwangsläufig mit ihrer Ökonomisierung zusammen. Tatsächlich ist Wikipedia inzwischen eine massive Konkurrenz für die herkömmlichen, kommerziell orientierten Lexika und Enzyklopädien.
  19. Mujan, D.: Informationsmanagement in lernenden Organisationen : Erzeugung von Informationsbedarf durch Informationsangebot ; was Organisationen aus der Informationsbedarfsanalyse lernen können (2006) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 4602) [ClassicSimilarity], result of:
              0.007074459 = score(doc=4602,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 4602, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4602)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.5, S.316-317 (S. Weber): "Mujan verfolgt sein Thema "Informationsmanagement in lernenden Organisationen" mittels eines interdisziplinären Ansatzes. Dieser ist zum einen der Informationswissenschaft zuzuordnen, ist aber auch Teil der Betriebswirtschaftslehre und der Wirtschaftsinformatik. Mujans Buch geht auf eine Dissertation an der Heinrich-Heine-Universität Düsseldorf zurück. Die Ausdrücke "Informationsmanagement" und "lernende Organisation" gewinnen in unserer Informationsgesellschaft immer mehr an Bedeutung. Informationsmanagement ermöglicht es, Informationen zu managen und den Informationsfluss in einem Unternehmen zu optimieren. Von einer "Lernenden Organisation" spricht man, wenn sich ein Unternehmen in einem ständigen Entwicklungsprozess befindet. Durch neue Erfahrungen und Möglichkeiten werden kontinuierlich Wissen und Handlungsspielräume neu überdacht und verändert. Informationsmanagement oder auch Wissensmanagement wird häufig in solchen Organisationen angewandt.
  20. McCorduck, P.: Machines who think : a personal inquiry into the history and prospects of artificial intelligence (2004) 0.00
    7.074459E-4 = product of:
      0.0035372295 = sum of:
        0.0035372295 = product of:
          0.007074459 = sum of:
            0.007074459 = weight(_text_:h in 4335) [ClassicSimilarity], result of:
              0.007074459 = score(doc=4335,freq=2.0), product of:
                0.10309036 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.041494254 = queryNorm
                0.06862386 = fieldWeight in 4335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4335)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in. Spektrum der Wissenschaft. 2005, H.4, S.106-108 (A. Leßmöllmann): "Bereits im Titel steckt Stoff für ein paar grüblerische Nachmittage: »Maschinen, die denken«, provokant mit dem englischen Relativpronomen »who« formuliert, das doch für Belebtes, sogar Vernunftbegabtes reserviert ist. Denken Maschinen denn? Ja, sagt Pamela McCorduck in ihrer Nacherzählung der Geschichte der künstlichen Intelligenz (KI). Fußball spielende Roboter, Schach spielende Computerprogramme, »Such-Bots«, die auf kluge Weise Datenbanken durchstöbern - das sind alles Denker. Allerdings nutzen sie ihre künstlichen Hirne auf eigene Art. Maschinendenken kann ganz anders ablaufen als Menschendenken und trotzdem Denken sein, so das Credo der Autorin. Um das zu zeigen, entfacht sie ein DenkmaschinenFeuerwerk: Sie hat klug beobachtet, kennt die KI-Szene (zumindest in den USA) und nimmt uns mit auf eine unterhaltsame Reise durch die Geschichte der KI-Tüftelei. Eine Reise, die für sie mit der alten Frage verknüpft ist, wie wir Wissen sammeln, mit Maschinen spielen, denkende Maschinen zu unseren Gefährten machen: Bereits der hinkende Schmied und Zeussohn Hephaistos hatte intelligente Blasebälge, die ihm aufs Wort gehorchten. McCorduck berichtet vom Enthusiasmus der Pioniere wie des Kybernetikers Norbert Wiener (1894-1964) und des Mathematikers John von Neumann (1903-1957), auf den die Idee eines gespeicherten Computerprogramms zurückgeht; beide sahen sich durchaus in der Tradition eines Rabbi Löw (1520-1609), der im frühneuzeitlichen Prag den Golem erschuf. Sie erzählt von der folgenschweren Dartmouth-Konferenz 1956, bei der Marvin Minsky und andere, auch heute noch aktive Wortführer entschieden: Ein künstliches Hirn kann wie ein menschliches arbeiten, ohne notwendigerweise wie ein solches gebaut zu sein. Künstliches Denken kann also auf algorithmischem Weg funktionieren - indem ein Programm Befehle ausführt, genauer: Symbole verarbeitet. Nebenbei erklärt McCorduck auch dem technisch unwilligen Leser, wie das legendäre »Psychotherapie«-Programm Eliza (das zwar unintelligent, aber überraschend wirkungsvoll plapperte) und all die anderen Maschinchen im Inneren ticken. Auch die Kritiker lässt sie zu Wort kommen, Joseph Weizenbaum beispielsweise, den schon der Erfolg seiner Eliza ängstigte: Offenbar seien Menschen viel zu schnell bereit, in Maschinen Intelligenz - sogar Gefühl! - zu vermuten, und deswegen sollten wir lieber die Finger von der KI lassen, um uns nicht selbst eine Falle zu stellen. Das ist alles wunderbar durchdacht und mit Herzblut berichtet. Allerdings nicht neu: Der größte Teil des Buchs er schien bereits 1981, wurde in den USA ein Bestseller und in viele Sprachen übersetzt, auch ins Deutsche (»Denkmaschinen«).

Authors

Languages

Types

  • s 390
  • i 156
  • b 23
  • el 22
  • x 13
  • d 5
  • n 4
  • r 3
  • h 2
  • u 2
  • fi 1
  • More… Less…

Themes

Subjects

Classifications