Search (20758 results, page 1036 of 1038)

  • × type_ss:"a"
  1. Firley, S.; Klasing, M.; Lülsdorf, L.; Mikosch, M.; Nagelschmidt, M.: Neue Plattform für Indexierung und Retrieval : Studenten erstellen die Webseite »iXtrieve« (2008) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 1826) [ClassicSimilarity], result of:
          0.006007989 = score(doc=1826,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1826)
      0.25 = coord(1/4)
    
    Abstract
    An der Fachhochschule Köln haben sich fünf Studierende des Diplom-Studiengangs Bibliothekswesen mit dem Aufbau einer Webseite für die Themenkomplexe Indexierung und Information Retrieval* befasst. Ein »Eingangsportal für alle damit verbundenen Fragestellungen« war in der Aufgabenstellung vorgesehen, die Rahmenbedingungen waren vorgegeben: Nutzung des unter Open-Source-Lizenz stehenden Content-Management-Systems Joomla, eigenverantwortliche Projektorganisation und Gruppenarbeit.
  2. Hämmer, V.; Flammersfeld, E.: Informationskompetenzveranstaltungen evaluieren : Qualitätskontrolle durch Befragung (2008) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 1832) [ClassicSimilarity], result of:
          0.006007989 = score(doc=1832,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 1832, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1832)
      0.25 = coord(1/4)
    
    Abstract
    1. Was versteht man unter Evaluation? Wozu wird evaluiert? Kurse zur Vermittlung von Informationskompetenz sind seit geraumer Zeit aus dem Serviceangebot wissenschaftlicher Bibliotheken nicht mehr wegzudenken. Die Veranstaltungen zu Themen wie Bibliotheksbenutzung, Literaturrecherche oder zu urheberrechtlichen Fragen werden an Universitäten vermehrt in die Curricula der Fachbereiche eingebunden. Dies zeugt von der wachsenden Bedeutung der Bibliotheken bei der Wissensvermittlung. Die Rolle des Bibliothekars beinhaltet in einem wachsenden Anteil Lehrtätigkeit. Und damit stellt sich die Frage nach der Qualität bibliothekarischer Lehre. Diese lässt sich nicht einfach aus den inhaltlichen Kompetenzen ableiten, die Bibliothekare in vielen Fällen sicherlich zu Recht für sich reklamieren. Um dem Anspruch kompetent zu lehren, tatsächlich gerecht zu werden, ist es notwendig, die Qualität der Veranstaltungen regelmäßig zu prüfen. Es lohnt sich zu reflektieren, ob das Interesse der Teilnehmer geweckt wird, ob die angewandten Lehrmethoden zum Lernen motivieren und natürlich ob die Lerninhalte erfolgreich vermittelt werden. Was ist unter Evaluation überhaupt zu verstehen? Clarke & Dawson prägten folgende Begriffsbestimmung: "Evaluation is defined as a form of disciplined inquiry (...) that applies scientific procedures to the collection and analysis of information about the content, structure and outcome of programmes, projects and planned interventions"'. Im deutschsprachigen Raum hat sich u. a. Rindermann besonders mit studentischer Lehrevaluation beschäftigt. Er definiert Evaluation ganz ähnlich als einen "Prozess der systematischen Beurteilung eines Programms oder Produkts" 2. Beim Stichwort "Lehrevaluation" liegt der Gedanke an studentische Bewertungen von Lehrveranstaltungen meist sehr nahe. In der (sozial-)wissenschaftlichen Diskussion wird allerdings ganz im Gegensatz dazu von manchen Autoren gar bezweifelt, ob es sich bei solchen Befragungen überhaupt um evaluative Maßnahmen handelt. Auf diese Diskussion wird hier nicht eingegangen.
  3. Löw, W.: Wo sind sie die Inseln der Vernunft? : Ein Gedenken an Joseph Weizenbaum (2008) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 1837) [ClassicSimilarity], result of:
          0.006007989 = score(doc=1837,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 1837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1837)
      0.25 = coord(1/4)
    
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.3, S.149
  4. Baumann, F.; Dressel, B.: nestor Spring School 2009 : ein Teilnehmerbericht (2009) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 3072) [ClassicSimilarity], result of:
          0.006007989 = score(doc=3072,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 3072, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3072)
      0.25 = coord(1/4)
    
    Content
    Darin (S.1264): "Frau Professor Regine Scheffel (Hochschule für Technik, Wirtschaft und Kultur Leipzig), gab als Einführungsvortrag einen Überblick über die Begrifflichkeit, die Strategien und die Modelle der Langzeitarchivierung. Wichtige Aspekte der Langzeitarchivierung machte sie anhand von aktuellen Modellen deutlich, insbesondere mithilfe des Modells von Thibodeau, bei dem drei Betrachtungsebenen, das heißt das konzeptionelle, das logische und das physische Objekt unterschieden werden. In ihrem Vortrag legte Frau Professor Regine Scheffel einen Schwerpunkt auf die Behandlung der Metadaten als strukturierte Daten über Objekte. Um die Beschreibung, die Suchbarkeit und das Auffinden der Objekte zu realisieren, müssen Metadaten mit dem jeweiligen digitalen Objekt verbunden werden. Als Ansatzpunkt dafür dient das Dublin Core Modell. Als Referenzmodell für ein Archivsystem innerhalb des Produzenten-Konsumenten-Verhältnisses stellte sie das OAIS vor. OAIS steht für Open Archival Information System bzw. Offenes Archiv-Informations-System (ISO-Standard 14721:2003). Es beschreibt allgemein die notwendigen Organisationsstrukturen und Prozessabläufe eines Archivsystems, in dem Mensch und Technik zusammenwirken, um digitales Archivgut verfügbar zu halten. Der Teilnehmer erhielt mit diesem Vortrag einen Überblick über Umgang, Formate und Metadaten der digitalen Objekte."
  5. Wegner, B.: Neuigkeiten vom Zentralblatt für Mathematik (2009) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 3233) [ClassicSimilarity], result of:
          0.006007989 = score(doc=3233,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 3233, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3233)
      0.25 = coord(1/4)
    
    Content
    Letztere Tatsache ist der Grund für ein Projekt, das beim Zentralblatt gerade angestoßen wird und langfristig zu einer Vervollständigung der in der Datenbank angebotenen Information führen soll. Man könnte es "dynamic reviewing" nennen. Das Prinzip ist, dass die Daten kontinuierlich um relevante Informationen erweitert werden, die erst nach dem Referieren zu unserer Kenntnis gelangen. Das kann in vielen Fällen dazu führen, dass später noch einmal ein weiteres Referat eingeholt wird, das retrospektiv den Einfluss der jeweiligen Arbeit auf die Weiterentwicklung der Mathematik aufgreift. Das ist natürlich nur bei einer Einbeziehung der forschenden Mathematiker und Anwender von Mathematik in solch ein Projekt möglich. Hinweise zu diesen Ideen sind jederzeit willkommen. Mit Beginn des neuen Jahres bietet die Datenbank des Zentralblatts eine neue Suchoberfläche an, ohne die gewohnten Suchmöglichkeiten abzuschalten. Sie ist einfacher gestaltet und mit neuen attraktiven Funktionalitäten gekoppelt. Eine Testversion ist bereits seit November 2009 verfügbar. Dort wird dann auch bald der eingetragene Name für die Datenbank erscheinen, der hoffentlich einmal einen Schlusspunkt auf das Namenswirrwarr setzt: ZBMATH. Hiermit dürfte es auch international keine Ausspracheprobleme geben. Schließlich sei noch darauf hingewiesen, dass die gemeinsam mit den Mathematical Reviews durchgeführte Revision des MSC erfolgreich beendet ist. Das MSC 2010 weist nur geringfügige Modifikationen gegenüber dem MSC 2000 auf. Das Schema wird ab dem I. 1.2010 eingesetzt. Die Anwendung auf die redaktionellen Arbeiten erfolgte bereits 2009. Das MSC ist auf den Webseiten des Zentralblatts frei zugänglich. Eine gedruckte Version kann in der Redaktion angefordert werden."
  6. Fischer, D.H.: ¬Ein Lehrbeispiel für eine Ontologie : OpenCyc (2004) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 4568) [ClassicSimilarity], result of:
          0.006007989 = score(doc=4568,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 4568, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4568)
      0.25 = coord(1/4)
    
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.139-142
  7. axk: Fortschritt im Schneckentempo : die Deutsche Digitale Bibliothek (2012) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 313) [ClassicSimilarity], result of:
          0.006007989 = score(doc=313,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 313, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
      0.25 = coord(1/4)
    
    Theme
    Information Gateway
  8. Deifel, R.; Seeger, F.; Vonhof, C.: Kooperative Pflege hält Systematiken in Schuss : Expertengruppe entwickelt ASB und KAB weiter / Praxisrelevanz im Blick (2011) 0.00
    0.0015019972 = product of:
      0.006007989 = sum of:
        0.006007989 = weight(_text_:information in 564) [ClassicSimilarity], result of:
          0.006007989 = score(doc=564,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.06788416 = fieldWeight in 564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=564)
      0.25 = coord(1/4)
    
    Abstract
    Systematiken zur Erschließung der Medienbestände sind alltägliches Handwerkszeug in der Bibliothekspraxis. Unspektakulär und kaum beachtet - wenn sie auf aktuellem Stand sind, den dynamischen Anforderungen des Medienmarkts gerecht werden und bequem zusammen mit Katalogdaten und den Medien ins Haus geliefert werden. Um die beiden meistverwendeten Systematiken in Öffentlichen Bibliotheken in Deutschland, die ASB (Allgemeine Systematik für Öffentliche Bibliotheken) und die KAB (Klassifikation für Allgemeinbibliotheken), wieder zu einem solchen unverzichtbaren Handwerkszeug zu machen, haben der Berufsverband Information Bibliothek (BIB) und der Deutsche Bibliotheksverband (dbv) als Rechteinhaber der Systematiken 2009 mit der ekz. bibliotheksservice GmbH ihre bestehende Partnerschaft in der »Systematikkooperation« erneuert. Das Ziel ist, durch gemeinsames Engagement die Systematiken künftig laufend den aktuellen Medienentwicklungen anzupassen und weiterzuentwickeln.
  9. Wannags, M.-M.; Schäfers, S.: 7. InetBib-Tagung : 12. bis 14. November 2003 in Frankfurt am Main (2004) 0.00
    0.0014865918 = product of:
      0.005946367 = sum of:
        0.005946367 = weight(_text_:information in 2113) [ClassicSimilarity], result of:
          0.005946367 = score(doc=2113,freq=6.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0671879 = fieldWeight in 2113, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=2113)
      0.25 = coord(1/4)
    
    Content
    In seinem Beitrag über "Rechtsstreitigkeiten bei der Dokumentlieferung" berichtete Ulrich Korwitz über die aktuellen rechtlichen Probleme denen Bibliotheken ausgesetzt sind, die ihre Informationen und Dokumente elektronisch zugänglich machen. Dabei stehe vor allem der Lieferdienst subito unter massivem Druck einiger großer internationaler Verlage, die ihre kommerziellen Interessen durch diesen Dienst beeinträchtigt sehen. Vor diesem Hintergrund seien die Initiativen zu sehen, die alternative Publikationsstrukturen in Form eines "Open Access" aufbauten, so z. B. "German Medical Science" (GMS), "German Academic Publishers" (GAP) oder "Digital Peer Publishing" (DIPP) in NRW. Es müsse erreicht werden, dass das Urheberrecht beim Autor verbleibe, und dieser sich nicht mehr exklusiv an kommerzielle Verlage bindet. "Science belongs to science. Copyright belongs to the author". In diesem Sinne sei auch die gerade veröffentlichte "Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen` zu verstehen. Den "Aufbau einer Koordinierungsstelle für elektronische Hochschulschriften" an Der Deutschen Bibliothek beschrieb Dr. Thomas Wollschläger. Es gäbe noch eine erhebliche Zahl von Hochschulen, an denen bestimmte Fachbereiche die Möglichkeit zur Online-Veröffentlichung nicht unterstützen und Promovenden nicht über diese Möglichkeit informierten. "Wie viele Verlage brauchen deutsche Universitäten und welche Verbundmodelle sind für diese geeignet?" fragte Dr. Claudia Koltzenburg in ihrer Präsentation des Verbundprojektes GAP - German Academic Publishers -, dessen Ziel der Aufbau eines kooperativen offenen Verbundes für elektronisches Publizieren im Wissenschaftsbereich unter Beteiligung deutscher Universitätsverlage ist. Nicht der Leser, sondern die Institution solle für den freien Zugang zu wissenschaftlicher Publikation zahlen. Neunzig Prozent dessen, was Wissenschaft hervorbringe sei nicht sedimentiert, sondern "im Fluss", ein "give away". Es müsse stärker vermittelt werden, welches Interesse die Universität und die Wissenschaftler an diesen Publikationen habe: Kooperation vs. corporate identity. Angestrebt werde nicht ein zentraler deutscher Universitätsverlag, sondern in Zusammenarbeit mit Wissenschaftlern, den Fachgesellschaften und weiteren Partnern ein Geschäfts- und Organisationsmodell für die künftige kooperative Gestaltung akademischer Publikationsformen zu entwickeln, das eine echte Alternative zu den marktbeherrschenden Großverlagen biete. Als erfolgreiches Gemeinschaftsunternehmen wissenschaftlicher Bibliotheken präsentierten Christine Burblies und Dr. Tamara Pianos das interdisziplinäre Internetportal für wissenschaftliche Information vascoda. Mittlerweile kooperieren über 30 Einrichtungen in diesem bundesweiten Projekt. Durch die Einbindung der Elektronischen Zeitschriftenbibliothek EZB und erweiterten Funktionalitäten im nächsten Release der Metasuchmaschine werde der Ausbau kontinuierlich vorangetrieben. Als "Chefsache" kennzeichnete Prof. Wilfried Juling die "Integration von Information, Kommunikation und Multimedia". Neue Medien und eine leistungsstarke elektronische Infrastruktur seien die Basis der eUniversity, der "enhanced university". Für eine erfolgreiche Umsetzung bedürfe es einer institutionalisierten Kooperation zwischen Rechenzentrum, Bibliothek, Medienzentrum, Verwaltung und Fakultäten. Diese Aufgabe sollte idealerweise ein CIO (Chief Information Officer) übernehmen, der aus dem operativen Geschäft herausgelöst sei und an der Seite des Rektors die konzeptionelle und administrative Aufsicht über alle technischen, organisatorischen und nutzungsrechtlichen Aspekte des Informationsversorgungsbereiches innehabe.
  10. Pöppe, C.: ¬Das Minderheitsspiel (2005) 0.00
    0.0014865918 = product of:
      0.005946367 = sum of:
        0.005946367 = weight(_text_:information in 3697) [ClassicSimilarity], result of:
          0.005946367 = score(doc=3697,freq=6.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.0671879 = fieldWeight in 3697, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=3697)
      0.25 = coord(1/4)
    
    Content
    Gegen den Strom schwimmen Am Ende gewinnen diejenigen, die in der Minderheit sind. Also kann es kein Rezept zum Gewinnen geben, denn wenn es eines gäbe, würden alle es anwenden, und dann wären sie keine Minderheit mehr. Für die Bar muss das mit der Minderheit nicht genau stimmen: Wenn es 500 Interessenten gibt und 100 Sitzplätze, dann sind 200 Barbesucher eine Minderheit gegenüber den 300 Daheimgebliebenen und trotzdem frustriert. Aber die wesentlichen Züge des Problems bleiben erhalten, wenn wir unterstellen, dass es genau doppelt so viele Interessenten wie Plätze gibt - plus einen, also zum Beispiel 301 Interessenten für 150 Plätze. (Wozu den einen Überzähligen? Damit man sich über den Spezialfall der Stimmengleichheit keine Gedanken zu machen braucht.) Situationen von der Art des Minderheitsspiels gibt es zuhauf. Der Autofahrer, der zwei staugefährdete Wege zum selben Ziel zur Auswahl hat, möchte denjenigen wählen, für den sich die Minderheit entscheidet. Der Urlauber reist, um dem Massenandrang zu entgehen, an den Strand, den die Zeitung als Geheimtipp empfohlen hat. Das Rehlein äst am liebsten dort, wo die anderen ihm nichts wegfressen. Nehmen wir an, der Börsenspekulant müsse sich fürs Kaufen oder fürs Verkaufen entscheiden, bevor er weiß, was die anderen tun. Dann möchte er unter seinesgleichen in der Minderheit sein, denn viele Käufer bei wenigen Verkäufern treiben den Preis hoch, was den Verkäufern gefällt, und umgekehrt. Da das Problem in so vielen Verkleidungen vorkommt, lohnt eine mathematische Abstraktion. Damien Challet von der Universität Fribourg (Schweiz) hat das getan und mit seinem »Minority Game« eine Flut von Veröffentlichungen ausgelöst. Sein Minderheitsspiel hat viele Mitspieler (»Akteure«) und verläuft nach folgenden Regeln: In jedem Spielzug kann ein Akteur zwischen zwei Alternativen A (zur Bar gehen; kaufen) und B (zu Hause bleiben; verkaufen) wählen. Wer sich nach dem Zug als zur Minderheit gehörig herausstellt, bekommt einen Pluspunkt, die Mitglieder der Mehrheit bekommen je einen Minuspunkt. Ziel des Spiels ist, in vielen Runden eine möglichst hohe Gesamtpunktzahl zu erreichen. Die Spieler können sich untereinander nicht verständigen. Die einzige verfügbare Information ist der Ausgang der vergangenen Spielzüge, wann also im bisherigen Spielverlauf A und wann B in der Minderheit war.
    Entscheidend der gemeinsame Irrglaube Zahlreiche Varianten des Spiels sind erdacht worden. Die Grundausstattung der Spieler mit Strategien wurde variiert. Zwei müssen es mindestens sein, damit sich überhaupt ein Lernprozess abspielen kann; mehr ändern nichts Wesentliches an den Ergebnissen, wie sich herausstellt. Es macht auch nur einen geringen Unterschied, wenn die Punkte für die Spieler nicht nach dem Ja-Nein-Prinzip vergeben werden (1 für die Minderheit, -1 für die Mehrheit), sondern proportional der Abweichung vom Gleichstand: je kleiner die Minderheit, desto größer die Belohnung für den Nonkonformisten. Andere Interpretationen sind bei der hohen Abstraktheit ebenfalls möglich. So haben verschiedene Leute eine darwinistische Evolution mit ins Siel gebracht: Alle paar Zeitschritte stirbt das Individuum mit der bis dahin schlechtesten Punktzahl und wird durch einen Klon des Punktbesten ersetzt, allerdings ohne dessen Lebenserfahrung: Die interne Bilanz der Strategien steht auf null wie bei einem Neugeborenen. Auch Mutationen wurden untersucht. Dann kam die Oberraschung. Der theoretische Physiker Andrea Cavagna, damals in Oxford, nahm den Spielern das Einzige, was sie zur Grundlage ihrer Entscheidungen nehmen konnten, nämlich die allen gemeinsame Erfahrung über die Vergangenheit, ersetzte sie durch irgendwelchen, für alle gleichen Nonsens, und es passierte - gar nichts! Im Ganzen gesehen blieb das kollektive Verhalten der Spieler unverändert. Das verblüfft und lässt die Tätigkeit der Chartanalysten in einem neuen Licht erscheinen. Gut, sie holen aus allgemein verfügbarer Information noch etwas heraus, das unter günstigen Umständen sogar realen Nutzen einbringt - aber nicht, weil diese Information etwas wert wäre. Aus der Vergangenheit an sich lernt man gar nichts. Man nutzt allein die Tatsache aus, dass alle anderen ebenfalls dem Irrglauben unterliegen, man könne aus der Vergangenheit etwas lernen. Das macht ihr Verhalten bis zu einem gewissen Grad berechenbar. Ich habe hier einen Geheimtipp, den ich veröffentliche mit dem Ziel, dass alle Leute daran glauben: Es sind überhaupt nicht die Börsenkurse der letzten Woche, die ihr in eure Chartanalysen eingeben sollt. Es sind die Lottozahlen vom letzten Samstag. Mit einem wissenschaftlich getesteten Analyseprogramm, das ich euch hiermit zum kostenlosen Download anbiete - damit ihr alle es anwendet - und mit Zufallskomponenten versehen - damit es nicht so auffällt -, könnt ihr daraus die Kauf- und Verkaufsempfehlungen für die nächste Woche errechnen. Der Einzige, der konsequent gegen die Prognosen meines eigenen Programms spekuliert, bin ich - und werde steinreich dabei. Schön wär's."
  11. Egel, J.R.: ¬Die Erde ist eine Scheibe : Was die vier am häufigsten verkauften Enzyklopädien auf CD-ROM bieten (2000) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 5502) [ClassicSimilarity], result of:
          0.005149705 = score(doc=5502,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 5502, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5502)
      0.25 = coord(1/4)
    
    Abstract
    Es hatte sich wegen grober FehIer und Unzulänglichkeiten schon in den Vorjahren den Spott verschiedener Rezenseten zugezogen und kann erneut den Konkurrenten nicht das Wasser reichen. Der Fundus an Wissen ist oft dürftig Dass manche Computerzeitschriften der Vorgängerversion ein Lob ausstellten, mag nicht wenige Kunden zum Kauf verführt haben. Die Enttäuschung dürfte um so größer sein, wenn sich die Scheiben drehen: magere Inhalte, lapidare Texte im Duktus unredigierter Rohlinge, Info-Bruchstücke, die vielfach nichts erklären und Wissenslücken, die Bände sprechen. Data Becker etwa kennt nur einen "Schröder". Den, den alle kennen. Unter den Tisch fallen: zwei Politiker gleichen Namens, ein Schriftsteller, ein Künstler, eine Schauspielerin und eine Sopran-Sängerin, von denen Encarta und Brockhaus berichten. "Das Wissen der Welt auf vier randvollen CDs" verspricht das Lexikon. Nein, so klein ist die Welt nun wirklich nicht. Genial finden die Data-Becker-Enzyklopädisten, was Lektoren eher grotesk nennen dürften: Jeder kann sein Lexikon individuell erweitern - und sein "Wissen" für alle Benutzer ins Internet stellen - ungeprüft. Das Essentielle einer Enzyklopädie, gesicherte Information, wird damit über Bord geworfen. Data Becker sieht sein Werk unbescheiden "als Prototyp des Wissensspeichers von morgen". Das mögen kritische Kunden und bessere Konkurrenten verhindern. "Lexitainment", heißt das Zauberwort bei Data-Becker. Man ahnt, dass das mit Enzyklopädien wenig zu tun hat. Deren Wesen war schon im Altertum bei den Griechen und Römern bekannt, obwohl der Name erst im 16. Jahrhundert in Gebrauch kam. Man verstand unter enkyklios paideia "die Gesamtbildung, die sich ein freigeborner Jüngling angeeignet haben musste, ehe er zur Erlernung eines bestimmten Faches oder in das werktätige Leben selbst überging". (Meyers Großes Konversations-Lexikon, 1907). Wohlan denn, freigeborene Jünglinge, lasset die richtigen - Silberscheiben sausen.
  12. Siemes, V.: Mittelstand muss die Scheu vorm Internet überwinden : Neue Medien schaffen neue, ungewohnte Berufe und verlangen von Unternehmen und Mitarbeitern neues Denken (2001) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 5706) [ClassicSimilarity], result of:
          0.005149705 = score(doc=5706,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 5706, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5706)
      0.25 = coord(1/4)
    
    Theme
    Information Resources Management
  13. Buchner, M.: ¬Die Machete im Dschungel : Persönliche Auskunftsdienste: "Hier werden Sie geholfen" - Ratgeber sind die neue Konkurrenz für Internet-Suchmaschinen (2001) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 5730) [ClassicSimilarity], result of:
          0.005149705 = score(doc=5730,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 5730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5730)
      0.25 = coord(1/4)
    
    Abstract
    Das allerdings zu höchst unterschiedlichen Preisen. So kassiert Talking.net 1,94 Mark pro Minute Auskunftszeit über das Festnetz, während Clarity für Handy-Dienste 3,63 Mark verlangt. Angesichts von gegenwärtig vier Milliarden Internet-Seiten mit einem Zuwachs von sieben Millionen Seiten pro Tag, so die Schätzung des Internet-Forschungsinstituts Cyveillance, sind Orientierungsprobleme im Netz vorprogrammiert. Suchmaschinen werfen auf Schlagworteingabe oft eine Unzahl von Verweisen aus - und lassen den Suchenden ratlos. - Exotische Fragen - Das stellten auch die Marktforscher Fittkau & Maaß bei einer Online-Umfrage fest: 57 Prozent der Internetsurfer finden es schwierig, Informationen aufzuspüren, 36 Prozent haben Probleme, vorhandene Seiten im World Wide Web zu finden und über ein Fünftel konnte nicht einmal bereits besuchte Websites wiederfinden. Dabei hat die Info-Sintflut erst begonnen. Die School of Information und Management Systems der University of California in Berkeley hat herausgefunden, dass allein 1999 1,5 Exabyte (1,5 Millionen Terabyte) neuer Daten erzeugt wurden - das sind 1.500.000.000.000.000 Bücher im Umfang von rund 300 Seiten. Derzeit taxieren die Autoren Hal Varian und Peter Lyman das Volumen aller weltweit verfügbaren Informationen auf zwölf Exabyte (= zwölf Millionen Terabyte), bis 2003 werden noch mehr Informationen erzeugt werden. Das bedeutet: In etwas mehr als zwei Jahren entstehen mehr Informationen als in den letzten 300 000 Jahren zusammen. Angesichts solcher Zahlen dürften Auskunftsdiensten goldene Zeiten bevorstehen. Vor allem wenn komplizierte Fragen zum Geschäftskonzept gehören, wie es bei der Talking.net AG der Fall ist. Der Service ist erreichbar unter der Nummer 11821 und nennt sich ausdrücklich "Alles-Auskunft".
  14. Wortsuche im Millisekunden-Takt (2002) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 6999) [ClassicSimilarity], result of:
          0.005149705 = score(doc=6999,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 6999, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6999)
      0.25 = coord(1/4)
    
    Theme
    Information
  15. Lischka, K.: US-Richter misstrauen Internet-Filtern : Jugendschutz contra freie Meinungsäußerung: In Amerika entscheidet wieder mal die Justiz über staatliche Vorgaben (2002) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 456) [ClassicSimilarity], result of:
          0.005149705 = score(doc=456,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=456)
      0.25 = coord(1/4)
    
    Content
    Bei der Entscheidung des Gerichts dürfte es kaum bedeutend sein, wie hoch der Anteil zu Unrecht blockierter Seiten ist. Als der Anwalt des Justizministeriums vor Gericht argumentierte, der liege bei nur sechs Prozent, entgegnete der vorsit-zende Richter Edward Becker: "Und wie hoch ist der absolute Anteil geschützter freier Meinungsäußerung in diesen sechs Prozent? Wir reden hier über vielleicht Zehntausende von Seiten." Auf die Entscheidung des Gerichts - es ist im Gesetz als erste Instanz für juristische Auseinandersetzungen vorgesehen - wird in jedem Fall eine Berufung vor dem Obersten Gerichtshof folgen. Die haben sowohl die ACLU als auch das Justizministerium angekündigt. Ob das Gesetz für verfassungswidrig erklärt wird, ist weniger sicher wie bei den zwei Vorgängern, da es den Einsatz von Filterprogrammen nicht zwingend vorschreibt, sondern lediglich zur Voraussetzung für finanzielle Unterstützung macht. Auf das Geld sind allerdings viele der 40 000 US-Bibliotheken angewiesen. Die Entscheidung, ob der CIPA mit der US-Verfassung zu vereinbaren ist, wird jedoch die zentrale Frage nicht beantworten: Wie kann Jugendschutz im Internet garantiert werden, ohne in Zensur umzuschlagen? Zahlreiche Lösungsvorschläge hat schon vor zwei Jahren die vom USKongress berufene COPA-Rommission gemacht. In ihrem Bericht sind Filterprogramme lediglich ein - keineswegs zentrales - Instrument. Die Information der Eltern sollte an erster, Stelle stehen, da keine Technologie perfekt ist. Wenn Eltern sich nicht mit den Interessen und Internet-Sitzungen ihrer Rinder beschäftigen, nützen Filterprogramme wenig. Die Kommission schlug auch zahlreiche technische Lösungen vor: Ein Selbstklassifizierungssystem für Anbieter von Internet-Inhalten beispielsweise, die Einfüh-rung neuer Top-Level-Domains wie .xxx und .kids, die Verbreitung von Verfahren zur Altersprüfung, die Schaffung von Kommissionen, die Inhalte empfehlen und damit so genannte Greenspaces für Kinder schaffen. Seit Jahren stehen diese Ideen im Raum. Statt sie zu diskutieren, wähnt . man sich - nicht nur in den Vereinigten Staaten - in der falschen Sicherheit der Filterprogramme."
  16. Pawlak, A.: Durch das Internet mit Links (2002) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 558) [ClassicSimilarity], result of:
          0.005149705 = score(doc=558,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=558)
      0.25 = coord(1/4)
    
    Content
    "Wie findet der einzelne Nutzer in der "allwissenden Müllhalde" Internet genau die verlässliche Information, die er sucht? Immerhin stehen dem wissbegierigen User auf über 36 Millionen Web-Angeboten (Sites) mehr als vier Milliarden Einzelseiten zur Verfügung. Deshalb gibt er meist in ein eigens dafür konzipiertes Internet-Programm, eine so genannte Suchmaschine, eine Kombination von Suchwörten ein und erhält eine Liste von Webseiten, in denen diese Wörter vorkommen. Nur allzuoft enthält diese Liste einen hohen Anteil Unbrauchbares, denn aus dem bloßen Vorhandensein eines Wortes geht nicht hervor, ob die Webseite zu dem zugehörigen Begriff etwas zu sagen hat. Mehr Sinn steckt schon in den in Hyperlinks, anklickbaren Verweisen, die der Autor der Webseite selbst in diese eingefügt hat. Das Web lässt sich als ein riesiges Netz aus Knoten auffassen, die durch die Hyperlinks miteinander verknüpft sind. Spezielle Computerprogramme sind in der Lage, in diesem unübersehbaren, zufällig erscheinenden Fadengewirr eine gewisse Ordnung zu finden (Spektrum der Wissenschaft 8/1999, S.44). Dabei erweist sich die Hyperlink-Struktur oftmals als ein deutlicheres Kennzeichen für die inhaltliche Verwandtschaft von Webseiten als noch so geschickt gewählte Suchbegriffe. Alle Verknüpfungen im gesamten Internet unter die Lupe zu nehmen scheitert jedoch an ihrer riesigen Menge. Deshalb haben Gary Flake und seine Kollegen vom Forschungsinstitut der amerikanischen Firma NEC in Princeton einen eiwas anderen Weg gewählt. Sie beschränken sich nicht auf eine vorgegebene Menge von Seiten, sondern wählen zunächst eine aus, die als Keimzelle für eine so genannte Commu nity (Gemeinschaft) dient. Kandidaten für die Community sind zunächst die Webseiten, die mit der Keimzelle direkt oder indirekt über (einoder ausgehende) Hyperlinks verknüpft sind. Durch einen raffinierten Algorithmus wird dann bestimmt, welche Webseiten endgültig zur Community gehören: Per Definition ist jedes Mitglied einer Community mit mehr Mitgliedern als Nicht-Mitgliedern verbunden. Das Computer-Programm der NEC-Forscher identifiziert somit ausgehend vom gewählten Startpunkt die Gemeinschaft, die sich selbstorganisiert über die Hyperlinks im Internet gebildet hat (IEEE Computer, Bd. 35, S. 66, 2002). Ein Beispiel für diese Methode findet sich unter http://webselforganization.corn/example.html. Dort hat der Algorithmus der NEC-Forscher einer Internetseite mit Themen zum 11. September eine Gemeinschaft von mehr als 6000 weiteren Seiten zugeordnet - nur auf grund der Verknüpfungen über Hyperlinks und ohne Zuhilfenahme von Textinformationen. Innerhalb dieser Community führt das Suchwort "why" nun sofort auf Seiten, die sich mit der Frage "Why did it happen and why did the buildings collapse?" beschäftigen. Auch die ansonsten mehrdeutigen Begriffe "bin" und "laden" führen nicht mehr in die Irre, sondern auf Informationen über Usama Bin Laden. Filtersoftware zur Abwehr pornografischer oder anderer anstößiger Web-Inhalte könnte mit dem Community-Algorithmus noch treffsicherer werden. Wie sich herausstellt, ist eine Pornografie-Seite nicht unbedingt am Vorhandensein gewisser Reizwörter zu erkennen, die von den Betreibern vielleicht mit Fleiß vermieden werden, sondern weit zuverlässiger daran, dass sie auf andere Pornografie-Seiten verweist oder auf sie von diesen verwiesen wird. Auch sind effektivere Suchmaschinen denkbar, bei denen sich text- und linkbasierte Methoden geschickt ergänzen.
  17. Niggemann, E.: Änderungen bei den bibliographischen Diensten : Die Deutsche Bibliothek (2002) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 653) [ClassicSimilarity], result of:
          0.005149705 = score(doc=653,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 653, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=653)
      0.25 = coord(1/4)
    
    Abstract
    zum einen an das VLB, zum anderen an jeden Bezieher dieses neuen Dienstes »Neuerscheinungen«, der ab dem Jahrgang 2003 die Reihe N ersetzt. Die Bezieher werden wesentlich umfassender als über den bisherigen CIP-Dienst über Neuerscheinungen informiert - Vergleiche gehen von der doppelten Menge aus. Die Information kommt außerdem sofort, das heißt nahezu zeitgleich mit der ersten Verlautbarung des Verlages. Den Vorteilen »größere Vollständigkeit« und »Zeitgleichheit« wird der Nachteil entgegenstehen, dass die Neuerscheinungs-Titelmeldungen Der Deutschen Bibliothek keine bibliothekarische Bearbeitung mehr erfahren haben, denn die Arbeitskraft, die an dieser Stelle im bisherigen CIP-Geschäftsgang eingespart wird, wird voll in den Autopsie-Geschäftsgang gegeben, um auch hier für Beschleunigung zu sorgen. Sobald ein Werk erschienen ist, soll es nämlich entsprechend schneller als bisher formal und inhaltlich erschlossen werden. Die Autopsie-Daten werden wiederum an das VLB einerseits und die Bezieher der entsprechenden nationalbibliografischen Dienste andererseits ausgeliefert. Für alle bisherigen Nachnutzer der Daten der Reihe A bedeutet das weniger Eigenleistung in der Katalogisierung, für das VLB bedeutet es einen höheren Qualitätsstandard. Die Kooperation soll allen zugute kommen: Die Buchhändler-Vereinigung und Die Deutsche Bibliothek versprechen sich von der stärkeren Zusammenarbeit zufriedenere Partner in den Verlagen, in den Buchhandlungen und in den Bibliotheken sowie darüber hinaus zufriedenere Nutzer und Kunden der Buchhandlungen und Bibliotheken.
  18. Lischka, K.: Gegengewichte zum Kommerz : Die Folgen der Informationstechnik beschäftigen viele Gruppen (2003) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 1247) [ClassicSimilarity], result of:
          0.005149705 = score(doc=1247,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 1247, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1247)
      0.25 = coord(1/4)
    
    Content
    Der Unterschied: Hintergrund Kearen weniger als in den achtziger jähren politische Entwicklungen, sondern vielmehr technologische. Computer eroberten als PCs immer mehr Haushalte, und das Internet wurde mit dem World Wide Web populär Vor diesem Hintergrund gründeten 1996 in München sieben Netzaktivisten den "Förderverein Informationstechnik und Gerellschaft" (Fitug). Eigentlich wollten wir nur unsere Aktivitäten bündeln. Damals ging es noch darum, das Medium und seine Benutzung bekannter zu machen - mehr in Richtung Information", erinnert sich Jürgen Plate, Gründungsmitglied und Informatik-Professor an der Münchner Fachhochschule. Seminare und Beratung über Chancen und Risiken der Informationstechtnologie sind heute nicht mehr das wesentliche Tätigkeitsfeld des Fitug. Anfragen werden beantwortet oder an die entsprechenden Experten unter den 80 Mitgliedern weitergeleitet. Die diskutieren vor allem intern. Bei großen Themen wendet sich Fitug auch über Presse und Diskussionsveranstaltungen an die Öffentlichkeit oder mit Briefen an verantwortliche Politiker. Wichtig sind für den Verein derzeit Privacy, Sperrverfügungen, teils das Patentrecht". Fragwürdige Patente sind der Existenzgrund des "Fördervereins für eine Freie Informationelle Infrastruktur" (FFII), der 1999 in München gegründet wurde. Gehörten zuerst vor allem Linux-Freaks dazu, die sich von Münchner Installationsfesten kannten, sind die 187 Mitglieder heute bundesweit verstreut. Sie engagieren sich für offene Schnittstellen und einen fairen Wettbewerb, ohne proprietäre Programme wie Windows per se zu verdammen. Den Mitgliedern schwebt ein Gegengewicht zum Branchenverband Bitkom vor, geführt von Softwarefachleuten statt Juristen, Managern und Werbern. Noch ist der FFII davon weit entfernt - wie alle anderen Initiativen. Zwar gibt es in Deutschland mehr bekannte Organisationen als etwa in den USA, doch ist keine von ihnen groß genug für eine Lobbyarbeit, die sich mit der von Industrieverbänden messen kann. Deshalb waren bisher wohl auch jene Initiativen am erfolgreichsten, bei denen viele der Gruppen sich zu einer Plattform zusammengeschlossen haben: etwa beim Big-Brother-Award oder Privatkopie.net. Vielleicht aber sind die netzartigen Strukturen dem Thema förderlicher als alte Lobbyhierarchien."
  19. Lischka, K.: Digitale Doppelgänger (2003) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 1268) [ClassicSimilarity], result of:
          0.005149705 = score(doc=1268,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 1268, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1268)
      0.25 = coord(1/4)
    
    Theme
    Information
  20. Burblies, C; Pianos, T.: National, regional, lokal : Workshop in Der Deutschen Bibliothek (2003) 0.00
    0.0012874262 = product of:
      0.005149705 = sum of:
        0.005149705 = weight(_text_:information in 1801) [ClassicSimilarity], result of:
          0.005149705 = score(doc=1801,freq=2.0), product of:
            0.08850355 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.050415643 = queryNorm
            0.058186423 = fieldWeight in 1801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1801)
      0.25 = coord(1/4)
    
    Theme
    Information Gateway

Authors

Languages

Types

  • el 423
  • b 53
  • p 1
  • s 1
  • x 1
  • More… Less…

Themes

Classifications