Search (2126 results, page 107 of 107)

  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Hosbach, W.: ¬Die Suche denkt mit : Moderne Suchtechnologien (2006) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 4885) [ClassicSimilarity], result of:
              0.013613109 = score(doc=4885,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 4885, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4885)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Mehr Intelligenz Semantik bedeutet bislang Handarbeit. Das ist lästig und kostspielig. Der Computer soll die Bedeutung bitte selbst verstehen! Im Forschungsbereich der Künstlichen Intelligenz (KI) arbeiten Wissenschaftler auch an derVerbesserung der Suche. Die Forscher vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme unter der Leitung von Prof. Thomas Hofmann haben ein Verfahren vorgestellt, das Konzepte von Texten extrahiert. "Konzepte bilden eine Brücke zwischen der Ausdrucksweise in einem Dokument und der in der Anfrage", erläutert Hofmann seinen Ansatz. So findet der Suchende alle relevanten Dokumente, selbst wenn die Suchbegriffe nicht direkt vorkommen. Das funktioniert derzeit nur in einem thematisch begrenzten Raum, z.B. einem Webauftritt über Medizin, Handel, Hardware... Bevor die Suchmaschine die Dokumente indiziert, errechnet sie die Konzepte aus einer begrenzten Sammlung an Dokumenten. Diese hat der Betreuer des Systems so ausgewählt, dass sie für das Themengebiet und den Webauftritt charakteristisch sind. Mit Methoden der Statistik und Wahrscheinlichkeitsrechnung (Probabilistic Latent Semantic Analysis; kurz pLSA) extrahiert der Roboter einige hundert bis tausend Konzepte. Die bestehen aus Begriffen und deren Art, gemeinsam in Dokumenten aufzutreten (Häufigkeit, Ort, Beziehung etc.) Für das Beispiel Handel gibt es etwa ein Konzept für Import oder eines für Buchhaltung. Stehen die Konzepte fest, erstellt die Suchmaschine den Index, indem sie alle Dokumente der Domäne den Konzepten zuordnet. Wenn der Anwender nun sucht, so versucht die Suchmaschine, die Anfrage ebenfalls Konzepten zuzuordnen, und wählt dementsprechend die Ergebnisse aus. Hoffmanns System ist auf der Webseite www.medlineplus.com im Einsatz. Gibt der Anwender z.B. +bird +flu ein, so sucht die Suchmaschine genau die Worte - ohne +, jedoch mit Konzept. Die Frage, ob eine konzeptbasierte Suchmaschine für das ganze Web möglich ist, bezweifelt Hofmann derzeit: "Das ist eine Frage der Skalierbarkeit. Die statistische Analyse ist nicht ganz trivial und braucht eine entsprechende Rechenleistung. Auf lange Sicht wird das aber kommen.
  2. Hermes, H.-J.: Aus den Arbeitsgruppen AG BIB - Bibliotheken / AG DK - Dezimalklassifikationen (2007) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 5145) [ClassicSimilarity], result of:
              0.013613109 = score(doc=5145,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 5145, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5145)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Ulrike Reiner, Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) Göttingen, stellte ihr Projekt der automatischen Analyse von Notationen der Dewey-Dezimalklassifikation (DDC) vor. DDCNotionen zeichnen sich dadurch aus, dass sie in aller Regel lang und komplex sind und in ihrer Herstellung zahlreiche Regeln zu durchlaufen haben. Ihr Computerprogramm analysiert DDC-Notationen und gibt alle in einer DDC-Notation enthaltenen DDCNotationen samt DDC-Klassenbenennungen aus. Die gewonnenen DDC-Klassenbenennungen können z.B. für eine DDC-basierte Suche verwendet werden. Aida Slavic aus London berichtete über den derzeitigen Stand bei der Universalen Dezimalklassifikation UDK. Wobei sie einerseits auf die erreichte Qualität und Modernität des alten Systems eingeht und andererseits die erreichte Organisationsstruktur im Rahmen des UDC-Konsortiums schildert. Insbesondere zu beklagen ist nach wie vor, dass im deutschsprachigen Raum seit dem Ausscheiden der beiden Normungsinstitute DIN und ÖNORM aus der UDK-Gestaltung sich keine Nachfolgestruktur zur Weiterführung der UDK gefunden hat.
  3. Wehrand, F.: 21. SISIS-Anwenderforum Berlin-Brandenburg (2006) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 5951) [ClassicSimilarity], result of:
              0.013613109 = score(doc=5951,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 5951, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5951)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am 16. Juni 2006 fand in der Hochschulbibliothek der EH Lausitz, Standort Senftenberg, das 21. SISIS-Anwenderforum Berlin-Brandenburg statt. Der amtierende Vorsitzende, Herr Wehrand (FHVR Berlin), hob hervor, dass seit Gründung des Forums erstmals eine Tagung an der FH Lausitz durchgeführt wird. Die regelmäßigen Treffen von Vertretern der SISIS-Anwenderbibliotheken dienen dem Erfahrungsaustausch mit dem Ziel, die Erfordernisse und Wünsche, die sich aus der praktischen Anwendung des SISIS-Systems ergeben, in die Planungen der Firma OCLC PICA GmbH einzubringen und Vorschläge für weitere Entwicklungen vorzulegen.
  4. Paskin, N.: Identifier interoperability : a report on two recent ISO activities (2006) 0.00
    0.0034032771 = product of:
      0.0068065543 = sum of:
        0.0068065543 = product of:
          0.013613109 = sum of:
            0.013613109 = weight(_text_:systems in 1179) [ClassicSimilarity], result of:
              0.013613109 = score(doc=1179,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.08488525 = fieldWeight in 1179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1179)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    There has been continuing discussion over a number of years within ISO TC46 SC9 of the need for interoperability between the various standard identifiers for which this committee is responsible. However, the nature of what that interoperability might mean - and how it might be achieved - has not been well explored. Considerable amounts of work have been done on standardising the identification schemes within each media sector, by creating standard identifiers that can be used within that sector. Equally, much work has been done on creating standard or reference metadata sets that can be used to associate key metadata descriptors with content. Much less work has been done on the impact of cross-sector working. Relatively little is understood about the effect of using one industry's identifiers in another industry, or on attempting to import metadata from one identification scheme into a system based on another. In the long term it is clear that interoperability of all these media identifiers and metadata schemes will be required. What is not clear is what initial steps are likely to deliver this soonest. Under the auspices of ISO TC46, an ad hoc group of representatives of TC46 SC9 Registration Authorities and invited experts met in London in late 2005, in a facilitated workshop funded by the registration agencies (RAs) responsible for ISAN, ISWC, ISRC, ISAN and DOI, to develop definitions and use cases, with the intention of providing a framework within which a more structured exploration of the issues might be undertaken. A report of the workshop prepared by Mark Bide of Rightscom Ltd. was used as the input for a wider discussion at the ISO TC46 meeting held in Thailand in February 2006, at which ISO TC46/SC9 agreed that Registration Authorities for ISRC, ISWC, ISAN, ISBN, ISSN and ISMN and the proposed RAs for ISTC and DOI should continue working on common issues relating to interoperability of identifier systems developed within TC46/SC9; some of the use cases have been selected for further in-depth investigation, in parallel with discussions on potential solutions.
  5. Hoffmann, L.: Bericht über die Konstituierende Sitzung des Beirats für das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" am 3. Februar 2003 (2003) 0.00
    0.0027226217 = product of:
      0.0054452433 = sum of:
        0.0054452433 = product of:
          0.010890487 = sum of:
            0.010890487 = weight(_text_:systems in 1789) [ClassicSimilarity], result of:
              0.010890487 = score(doc=1789,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.0679082 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Ein umfangreicher Fragebogen wurde entwickelt, der unter anderem verlässliche Daten zu folgenden Fragestellungen ermitteln soll: - Welche Bibliothekssysteme sind im Einsatz? - Welche Bibliothekssysteme sind auf MARC konfigurierbar? - Wie groß ist der Datenbestand insgesamt? - Wie hoch ist der Fremddatenanteil? - Welche Fremddaten werden genutzt? - In welchen Formaten und Regelwerken liegen diese Fremddaten vor? Werden die genutzten Fremddaten unverändert übernommen? - Wenn sie geändert werden, geschieht dies maschinell oder manuell? - Werden Dublettenprüfungen eingesetzt? Dieser Fragebogen wurde als Online-Fragebogen konzipiert und über die Vorsitzenden der Sektionen des Deutschen Bibliotheksverbandes verschickt. Gleichzeitig wurden Fragestellungen für die Expertengruppen des Standardisierungsausschusses (Expertengruppen Formalerschließung, PND, GKD sowie MAB-Ausschuss) entwickelt. Spezielle Fragen, die die Besonderheiten der fortlaufenden Sammelwerke und Zeitschriften betreffen, wurden an die Zeitschriftendatenbank (ZDB) und die Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB (AGDBT) gestellt. Gleichzeitig wurden diese Fragen auch externen Experten vorgelegt. Zu diesen Untersuchungsgegenständen gehören unter anderem: Vergleich von RAK und AACR unter folgenden Aspekten: - Ansetzung von persönlichen Namen - Individualisierung von Personennamen - Ansetzung von Gebietskörperschaften und Kongressen - Split entries bei fortlaufenden Sammelwerken - Transliterationen Vergleich von MAB und MARC unter folgenden Aspekten - Darstellung der Mehrbändigkeit - Darstellung der Nichtsortierzeichen - Verwendung von Pflichtcodes und Pflichtfeldern Der Vergleich beschränkt sich schwerpunktmäßig auf diejenigen Aspekte, die mit großer Wahrscheinlichkeit bei einer Migration zu Konflikten führen werden. Die Ergebnisse des Vergleichs werden auf ihre Konsequenzen untersucht und zwar jeweils auf die verschiedenen Migrationsszenarien bezogen. Für die Errechnung der Kosten eines Umstiegs wird sich das Projekt eines externen Unternehmensberaters bedienen. Dabei geht es nicht nur um die Kosten einer Neuanschaffung bzw. der Umrüstung eines EDV-Systems. Die Kosten werden differenziert je nach Migrationsmodell errechnet. Darüber hinaus werden Folgekosten wie Anpassungen von Schnittstellen an das MARCFormat sowie die Fortbildung von Mitarbeitern kalkuliert. Es werden aber auch die Kosten errechnet, die bei einem "Nicht"-Umstieg entstehen. Dazu gehören die Kosten, die entstehen, wenn ein neues SoftwareSystem bei seiner Installierung auf MAB aufgerüstet werden muss. Hier werden Kalkulationen über entgangene Fremddatennutzung, entgangene Kooperationen, Kosten für Anpassungen von MARC-Daten an das MAB-Format u.dgl. aufgestellt. Dabei wird nicht nur der internationale Datentausch betrachtet, sondern auch der Datentausch zwischen MAB-Datenbanken. Für die Untersuchung betriebwirtschaftlicher Aspekte im Hinblick auf die Finanzierung eines Umstiegs oder der verschiedenen Umstiegsvarianten sowie des Verbleibs bei den bisherigen Systemen sind erste Kontakte mit Experten auf dem Gebiet der Kostenrechnung im Bibliothekswesen aufgenommen worden. Es haben außerdem Vorgespräche in Der Deutschen Bibliothek für den formalen Ablauf einer-Ausschreibung sowohl im Inland wie auch in den USA stattgefunden. Der Beirat regte an, den Projektplan stärker in Abhängigkeit von den Umstiegsszenarien zu systematisieren und hat eine stärkere Einbeziehung der Nutzersicht und der Konsequenzen eines Umstiegs für Fernleihe, Dokumentlieferung und OPAC empfohlen. Insbesondere die Anliegen der wissenschaftlichen Nutzer aus der Sicht der DFG und die Bedeutung des internationalen Informationsaustauschs sollen stärker akzentuiert werden. Abschließend wurden die nächsten Schritte von Frau Hoffmann skizziert:
  6. Schildt, A.: Masse und Macht : Mediengeschichtliche Deutungsansätze zwischen Konstruktivismus und Ideologiekritik (2001) 0.00
    0.0027226217 = product of:
      0.0054452433 = sum of:
        0.0054452433 = product of:
          0.010890487 = sum of:
            0.010890487 = weight(_text_:systems in 1894) [ClassicSimilarity], result of:
              0.010890487 = score(doc=1894,freq=2.0), product of:
                0.16037072 = queryWeight, product of:
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.052184064 = queryNorm
                0.0679082 = fieldWeight in 1894, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0731742 = idf(docFreq=5561, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1894)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rundfunkdichte wie Kinobesuche stiegen bis 1943 weiter steil an: Auch in der Nachkriegstristesse behauptete der Hörfunk, schon wegen des anfänglichen Papiermangels seine führende Position im Medienensemble, und im Laufe der 50er Jahre hielt das Radio Einzug in die letzten zuvor noch nicht erreichten Haushalte. Die politischen Rahmenbedingungen und Inhalte hatten sich zwar verändert, aber die Programmstruktur des auditiven Mediums war davon weitgehend unberührt geblieben. Die Unterhaltung im Radio, aber auch den Film und die illustrierten in den 50er Jahren zeichnete ein hohes Maß von Ähnlichkeit zur Zwischenkriegszeit aus, sozusagen als äethetischen Ausdruck sozialhistorischer Kontinuität: Dies gilt selbst für die großen Innovationen des Printsektors, etwa die Prögrammzeitschrift Hör Zu aus dem Springer-Konzern, die es wie wohl kein anderes Druckerzeugnis vermochte, die Mentalität einer Mehrheit der Bundesbürger im Wiederaufbau, aufgeschlossen gegenüber der Konsummoderne und zugleich politisch konservativ gestimmt, publizistisch zu inszenieren. Der Aufstieg des Fernsehens führte das massenmediale Ensemble auf seine dritte Stufe. Das TV-Gerät übernahm vom Hörfunk insbesondere die zentrale Funktion der Unterhaltung in der stetig wachsenden Freizeit, vor allem am "langen Wochenende", und es zementierte Häuslichkeit, indem es sie noch attraktiver werden ließ. Anfang der 60er Jahre war der Fernsehapparat in etwa einem Viertel aller Haushalte vorhanden, ein Jahrzehnt später in drei Vierteln. Wenn das Radio das Leitmedium der Zeit des Wiederaufbaus gewesen war, so nahm das Fernsehen diese Stelle in der beginnenden postindustriellen Wohlstands- und Erlebnisgesellschaft ein. Das Fernsehen brachte eine enorme Vermehrung fiktionaler Angebote und der Möglichkeiten, sich über ferne und nahe Welten informieren und zugehörige Bilder auf sich wirken zu lassen. In eben diesem Zeitraum, den 60er Jahren, begann auch die Ankoppelung der ostdeutschen Bevölkerung an die westlichen Massenmedien - ein wenig bekannter Teil der Vorgeschichte der deutschen Einigung: Während heute vielfach vom Ende des Zeitalters der Massenmedien und herkömmlichen Kommunikationsmedien durch digitale Netze die Rede ist, steht die Geschichtswissenschaft noch am Anfang der Erforschung des massenmedialen Ensembles, der von ihr geprägten Öffentlichkeit und erzielten gesellschaftlichen Wirkungen. Insofern klafft eine historische Erklärungslücke, die auch . aktuelle Diskussionen tangiert. Dass der geschichtswissenschatliche Forschungsbeitrag zum Verständnis der Massenmedien über die lange Zeit übliche Betrachtung der der Medien als Spiegel der Zeitläufe hinauszugehen hat, spricht sich zwar allmählich herum, aber wie der gesellschaftliche Prozess der Kommunikation selbst zu analysieren tat bleibt unklar. Ratlos stehen Historiker heute vor einer riesigen und stetig wachsenden medientheoretischen Angebotspalette benachbarter Disziplinen. Hier sollen nur einige derjenigen Ansätze und ihre Probleme erwähnt werden, die für die Konzeptionierung historischer Forschung einige Anregungen versprechen. Von sozialwissenschaftlicher Seite, häufig mit kritischem Bezug auf Niklas Luhmann, werden vor allem strukturfunktionalistische Theorien präsentiert, die es zwar erlauben, Öffentlichkeit als Systems von einer Vielzahl kleiner und großer Foren au verstehen; allerdings wird Öffentlichkeit dabei tendenziell als sich selbsterzeugendes und selbstreferenzielles System begriffen, während die umgebende Gesellschaft unter Einschluss ihrer ökonomischen Strukturen und die beteiligten Menschen in solchen Ansätzen kaum Beachtung finden. Eine besondere Rolle nimmt in diesem Zusammenhang eine stark diskutierte Richtung ein, die sich nicht ohne Selbstironie als "radikalen Konstruktivismus" (Siegfried J. Schmidt) bezeichnet und davon ausgeht, dass durch Medien Wirklichkeitsentwürfe produziert werden, die Welt nicht abbilden, sondern 'konstruieren'; die Konstruiertheit unserer Wirklichkeit werde uns erst bewußt, wenn wir beobachten; wie wir beobachtenund handeln.

Languages

Types

Themes