Search (25816 results, page 1291 of 1291)

  • × type_ss:"a"
  1. Schröter, H.G.: Microsoft lockt mit Rabatt : Neuer Dienst für Suchmaschinen-Nutzer / Google baut Führung aus (2008) 0.00
    0.0017261475 = product of:
      0.005178442 = sum of:
        0.005178442 = weight(_text_:in in 1876) [ClassicSimilarity], result of:
          0.005178442 = score(doc=1876,freq=4.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.07438892 = fieldWeight in 1876, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1876)
      0.33333334 = coord(1/3)
    
    Content
    "Google hat den Abstand zu den konkurrierenden Suchmaschinen im Web in den USA noch vergrößert. Der Marktanteil des Internet-Giganten an den Suchanfragen sei im April auf 61,6 Prozent von 59,8 Prozent im Vormonat gestiegen, berichtete die Marktforschungsfirma Comscore. Der Anteil von Yahoo sei dagegen von 21,3 auf 20,4 Prozent und der von Microsoft auf 9,1 von 9,4 Prozent gesunken. AOL und Ask Network folgen abgeschlagen mit 4,6 und 4,3 Prozent. Microsoft versucht seit langem immer wieder, den Abstand zu Google zu verringern. Denn die Beliebtheit der Suchmaschine spielt eine wichtige Rolle für das lukrative Geschäft mit Online-Werbung. Jetzt startet der Software-Riese mit dem "Live Search Cashback" getauften Programm einen neuen Versuch. Er will Nutzern seiner Suchmaschine einen Rabatt auf Kameras, Uhren, Sportschuhe und viele andere Produkte von Anzeigenkunden gewähren. Wer sich registriert hat und auf der Suchmaschine Windows Live Search besonders markierte Artikel bestimmter Händler findet und online erwirbt, bekommt 60 Tage nach dem Kauf Geld zurück. Die Rabatte sollen von zwei bis 30 Prozent reichen. Dabei arbeitet Microsoft nach eigenen Angaben mit mehr als 700 Partnerfirmen zusammen. Zu ihnen zählen unter anderem Ebay, der Buchhändler Barnes & Noble und Sears. Diese sollen für ihre bei Microsoft geschalteten Anzeigen nur dann eine Gebühr zahlen, wenn ein Kunde über das Cashback-Programm einen Kauf abschließt. Aus diesen Gebühren werden die Rabatte an die Kunden finanziert. Anders als bei diesem cost-per-action genannten Modell zahlen Unternehmen derzeit für jeden Klick der Internetnutzer auf ihre Anzeigen. Bei diesem Modell (cost-per-click) dominiert Google.
    "Wir glauben, dass die Suche Verbrauchern und Werbetreibenden weit mehr bieten kann als heute üblich ist", erklärte Microsoft-Mitgründer Bill Gates. Live Search Cashback werde Anzeigenkunden beim Online-Verkauf helfen und Konsumenten einen neuen Weg bieten, mehr aus ihren Dollars zu machen. "Wir wollen Ihre Treue gewinnen", erfahren Interessenten, die sich auf der US-Website über das Cashback-Programm schlau machen wollen. Ob Microsoft den neuen Dienst gegebenenfalls auch außerhalb der USA einführen wird, sei nicht entschieden, teilt der hiesige Ableger mit. Der große Abstand der Microsoft-Suche Live Search zum Marktführer Google war der Hauptgrund dafür, dass der weltweit größte Software-Konzern einen Übernahmevorschlag für Yahoo vorlegte. Die Nummer zwei am US-Suchmarkt befand das Angebot von zuletzt 47,5 Milliarden Dollar aber als zu niedrig. Microsoft zog die Offerte Anfang Mai zurück. Seither reißen die Spekulationen nicht ab, dass Microsoft es nun lediglich auf das Suchmaschinengeschäft von Yahoo und eine Minderheitsbeteiligung an dem Internet-Konzern abgesehen habe. Ob der neue Rabatt-Ansatz bei der Produktsuche Microsoft den erhofften Erfolg bescheren wird, ist noch nicht ausgemacht. Zwar hat der Konzern eine lange Liste von Händlern gewonnen, die mitmachen wollen. Doch fraglich bleibt, ob Preisnachlässe beim Online-Shopping verlockend genug sind, damit Internetnutzer massenhaft zu Live Search wechseln. Nicht ohne Grund liegt Google in der Gunst der Surfer weit vorn. An der überlegenen Technologie des Branchenführers ändert das Cashback-Programm nichts. Es könnte aber an Bedeutung gewinnen, wenn Microsoft die Yahoo-Suchmaschine schlucken würde. Und es könnte ein Versuch sein, dem Erzrivalen Google das Leben so schwer wie möglich zu machen, obwohl die Anzeigen-Einnahmen aus dem Cashback-Programm ja den Online-Käufern und nicht Microsoft zufließen sollen. Findet der Microsoft-Konzern nämlich genug Händler für sein Rabatt-Modell, dann könnte er Werbedollar von Google abziehen."
  2. Soondrum, N.: Google fährt Krakenarme aus : Suchmaschine bietet Nachrichteninhalte acht europäischer Agenturen an (2009) 0.00
    0.0017261475 = product of:
      0.005178442 = sum of:
        0.005178442 = weight(_text_:in in 4974) [ClassicSimilarity], result of:
          0.005178442 = score(doc=4974,freq=4.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.07438892 = fieldWeight in 4974, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4974)
      0.33333334 = coord(1/3)
    
    Content
    Obwohl Google News die Inhalte maschinell sortiert und den Agenturmaterialien keine redaktionelle Bearbeitung angedeihen lässt, bedeutet das um die EPA-Mitglieder erweiterte Angebot eine fatale Konkurrenz für Nachrichtenportale, die Agenturmaterial verwenden - und das sind fast alle. Stefan Keuchel, Sprecher von Google in Deutschland, streitet eine Verschärfung des Wettbewerbs ab: "Alles was wir tun, ist den Nachrichtenticker dieser Agenturen vollständig anzuzeigen. Daneben verlinken wir ja weiter auf eigene Inhalte der Medienportale", sagte Keuchel der FR. Was er dabei unter den Tisch fallen lässt, ist, dass das eigentliche Geschäft im Internet mit Werbung gemacht wird. Je mehr Nutzerzugriffe ein Nachrichtenanbieter im Netz vorweisen kann, desto begehrter wird sein Werbeplatz. Auf dem Gebiet der Werbung intensiviert Google gerade seine Aktivität. Wie das Wall Street Journal am 18. März meldete, kooperiert der Internetriese mit der britischen WPP Group, dem weltgrößten Werbekonzern. Ziel ist es, mit der Harvard Business School, dem MIT und der Stanford University eine Studie über die Effizienz von Online-Werbung zu erarbeiten. Da fällt einem das Epic- Video ein: 2008 fusionieren in der fingierten Doku Google und das Internet-Versandhaus Amazon. "Zusammen nutzen sie ihr Wissen über das jeweilige soziale Geflecht und die Kauf- und Lesegewohnheiten zur totalen Anpassung des Contents und der Werbung an die Kundenwünsche." 2014 hat "Googlezon" Microsoft ausgeschaltet, die New York Times geht offline: Sie verbleibt als Printmedium für "die Eliten und ältere Menschen". V wie Verschwörungstheorie? Oder aber: Vielleicht näher an der Realität, als wir dachten."
  3. Daniel, F.: Neue Serviceangebote in einer modernen Öffentlichen Bibliothek am Beispiel der StadtBibliothek Köln (2000) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 5515) [ClassicSimilarity], result of:
          0.004184813 = score(doc=5515,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 5515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5515)
      0.33333334 = coord(1/3)
    
  4. Reneker, M.; Jacobson, A.; Wargo, L.; Spink, A.: Information environment of a military university campus : an exploratory study (1999) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 6704) [ClassicSimilarity], result of:
          0.004184813 = score(doc=6704,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 6704, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=6704)
      0.33333334 = coord(1/3)
    
    Abstract
    The Naval Postgraduate School (NPS) is a military university educating officers from the United States and 40 foreign countries. To investigate the NPS information environment a large study obtained data on the range of information needs and behaviors of NPS personnel. The specific aim of the study was to supply organizational units with qualitative data specific to their client base, enabling them to improve campus systems and information services. Facilitators from the NPS Organizational Support Division conducted eighteen (18) focus groups during Spring Quarter 1998. Transcribed focus group sessions were analyzed using NUDIST software to identify key issues and results emerging from the data set. Categories of participants' information needs were identified, including an analysis of key information issues across the NPS campus. Use of Internet resources, other trusted individuals, and electronic indexes and abstracts ranked high among information sources used by NPS personnel. A picture emerges of a campus information environment poorly understood by the academic community. The three groups (students, staff and faculty) articulated different concerns and look to different sources to satisfy their information needs. Participants' information seeking problems centered on: (1) housing, registration and scheduling, computing and the quality of information available on the campus computer network, (2) an inability to easily disseminate information quickly to an appropriate campus audience, and (3) training in new information access technologies, and (4) the general lack of awareness of library resources and services. The paper discusses a method for more effectively disseminating information throughout the campus. Implications for the development of information seeking models and a model of the NPS information environment are discussed
  5. Blair, D.C.: ¬The challenge of commercial document retrieval : Part I: Major issues, and a framework based on search exhaustivity, determinacy of representation and document collection size (2002) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 2580) [ClassicSimilarity], result of:
          0.004184813 = score(doc=2580,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 2580, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2580)
      0.33333334 = coord(1/3)
    
    Abstract
    With the growing focus on what is collectively known as "knowledge management", a shift continues to take place in commercial information system development: a shift away from the well-understood data retrieval/database model, to the more complex and challenging development of commercial document/information retrieval models. While document retrieval has had a long and rich legacy of research, its impact on commercial applications has been modest. At the enterprise level most large organizations have little understanding of, or commitment to, high quality document access and management. Part of the reason for this is that we still do not have a good framework for understanding the major factors which affect the performance of large-scale corporate document retrieval systems. The thesis of this discussion is that document retrieval - specifically, access to intellectual content - is a complex process which is most strongly influenced by three factors: the size of the document collection; the type of search (exhaustive, existence or sample); and, the determinacy of document representation. Collectively, these factors can be used to provide a useful framework for, or taxonomy of, document retrieval, and highlight some of the fundamental issues facing the design and development of commercial document retrieval systems. This is the first of a series of three articles. Part II (D.C. Blair, The challenge of commercial document retrieval. Part II. A strategy for document searching based on identifiable document partitions, Information Processing and Management, 2001b, this issue) will discuss the implications of this framework for search strategy, and Part III (D.C. Blair, Some thoughts on the reported results of Text REtrieval Conference (TREC), Information Processing and Management, 2002, forthcoming) will consider the importance of the TREC results for our understanding of operating information retrieval systems.
  6. cid: Google & Co. : In die Welt der Suchmaschinen kommt Bewegung (2004) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 2809) [ClassicSimilarity], result of:
          0.004184813 = score(doc=2809,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 2809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2809)
      0.33333334 = coord(1/3)
    
  7. Fassbender, J.: ¬Das Deutsche Netzwerk der Indexer - professionelle Registererstellung irn Brennpunkt (2004) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 3052) [ClassicSimilarity], result of:
          0.004184813 = score(doc=3052,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 3052, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3052)
      0.33333334 = coord(1/3)
    
    Content
    "Anlässlich der diesjährigen Buchmesse trafen sich auf Initiative von Jochen Fassbender zum ersten Mal die Mitglieder des im Sommer 2004 entstandenen Deutschen Netzwerks der Indexer. Das DNI versteht sich als Sammelbecken für alle an professioneller Registererstellung (Indexing) interessierten Personen und als Plattform für die damit verbundenen Themen im deutschsprachigen Raum. Im DNI sind sowohl Spezialisten aus dem Publikationswesen als auch aus dem informationswissenschaftlichen Bereich versammelt; beide Bereiche sollen dadurch auch enger zusammengeführt werden. Thematisch ist der gesamte Printund digitale Medienbereich, vom klassischen Buchregister über den Fachzeitschriften-Index bis hin zu Registern für elektronische Medien, abgedeckt. Das DNI möchte eine ähnliche Funktion wie die schon lange bestehenden, weltweit führenden anglo-amerikanischen Fachverbände, die Society of Indexers in Großbritannien und die American Society of Indexers, einnehmen. Denn trotz über 500-jähriger Buchtradition im deutschsprachigen Raum gibt es hierzulande keinen professionellen Rahmen für Registerersteller, und die Qualität der Register lässt oft zu wünschen übrig. Register, die ohne spezielle Indexing-Kenntnisse erstellt werden - und dazu zählen meist auch von Autoren erstellte Register - gehen oft an den Bedürfnissen der Leser und Nutzer vorbei. Das DNI möchte daher über notorisch weit verbreitete Fehleinschätzungen zum Indexing aufklären und kann sich dabei auf zum Teil jahrzehntelange Erfahrung und Kompetenz seiner Mitglieder stützen. Die meisten DNI-Mitglieder bieten zudem Registererstellung als Dienstleistung an. Moderne, professionelle Registererstellung, insbesondere die Erstellung von Sachregistern, ist ein Fachgebiet für sich und umfasst neben den technischen Aspekten auch die indexmethodischen Kompetenzen. Der Registererstellung kommt stets eine besondere Bedeutung zu, denn nur ein qualitativ hochwertiges Register bietet einen wirklichen Zugang zum Inhalt einer Publikation. Gute Register sind daher kein Selbstzweck, sondern stellen einen Mehrwert und damit auch einen hervorragenden, oft unterschätzten Marketing-Faktor dar. Verlage, Firmen und Autoren, die an den Serviceleistungen der DNI-Mitglieder interessiert sind, sowie Interessenten, die sich dem DNI anschließen möchten, finden weiterführende Informationen auf der DNI-Website www.d-indexer.org. Eine enge Zusammenarbeit mit der DGI ist gegeben."
  8. CENL begrüßt Pläne der Europäischen Kommission zur Unterstützung des Aufbaus einer Europäischen Digitalen Bibliothek (2006) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 5024) [ClassicSimilarity], result of:
          0.004184813 = score(doc=5024,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 5024, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5024)
      0.33333334 = coord(1/3)
    
    Content
    "Die Konferenz der Europäischen Nationalbibliothekare (Conference of European National Librarians, CENL) begrüßt die Pläne der Europäischen Kommission, den digitalen Zugang zum europäischen Kulturerbe durch den Aufbau einer Europäischen Digitalen Bibliothek zu unterstützen. Die finanzielle Förderung der Kommission wird sich auf den Aufbau eines europaweiten Netzwerkes von Digitalisierungszentren und auf die Etablierung eines geeigneten juristischen Rahmens für den Schutz von Urheberrechten im Zusammenhang mit digitalen Bibliotheken konzentrieren. CENL teilt die Vision einer Europäischen Digitalen Bibliothek und hat mit der Entwicklung von The European Library, TEL, wichtige Vorarbeiten geleistet. The European Library wurde in der Projektphase von der Europäischen Kommission gefördert. Die Europäische Kommission erkennt diese Vorarbeiten durch CENL mit ihrer Absicht an, die Europäische Digitale Bibliothek auf der TEL-Infrastruktur aufzubauen. The European Library ist der Webservice der 45 CENL-Mitgliedsbibliotheken und bietet Zugang zu Katalogen und digitalen Sammlungen von derzeit 15 europäischen Nationalbibliotheken. Ende 2006 wird sich die Zahl der europäischen Nationalbibliotheken, die sich als Vollmitglieder an dem Webservice beteiligen, um die zehn neuen Mitgliedsstaaten der Europäischen Union sowie alle übrigen EU- und EFTA-Staaten erweitern. Die Nationalbibliotheken der zehn neuen Mitgliedsstaaten bereiten sich zurzeit auf den Beitritt zu The European Library im Rahmen des TEL-ME-MOR-Projektes vor. CENL ist davon überzeugt, dass The European Library die ideale organisatorische Basis für den Aufbau der Europäischen Digitalen Bibliothek darstellt. Als Gruppe sind die Mitglieder von CENL die Bewahrer des europäischen publizierten kulturellen Erbes - viele durch das nationale Pflichtexemplarrecht, viele für den gesamten Zeitraum der Geschichte ihrer Nation. Dies bildet die Basis für die Europäische Digitale Bibliothek, einen gut sichtbaren, multilingualen Zugang zu den digitalen Materialien europäischer kultureller Institutionen. CENL begrüßt insbesondere die Pläne der Europäischen Kommission, die erfolgreiche Zusammenarbeit der Nationalbibliotheken auf die Archive und Museen auszuweiten, um eine umfassende Europäische Digitale Bibliothek aufzubauen. CENL ist bereit, die bestehenden Kontakte zu europäischen Archiven und Museen zu vertiefen und konkrete Schritte auf dem Weg zur Europäischen Digitalen Bibliothek zu diskutieren. Da das Europa der Zukunft größer sein wird als heute ist es wichtig, von Anfang an alle europäischen Staaten einzubeziehen, nicht nur diejenigen, die heute zur Europäischen Union gehören. Ein erweiterbares System aufzubauen bedeutet neben der Einbeziehung weiterer Institutionen und Staaten nicht nur technische, sondern auch funktionale Skalierbarkeit: Es bedeutet, alle europäischen Sprachen mit ihren verschiedenen Schriften zu berücksichtigen. Die Vision einer umfassenden Europäischen Digitalen Bibliothek lässt sich durch gemeinsame Anstrengungen und abgestimmte Vorgehensweisen pragmatisch realisieren."
  9. Paskin, N.: DOI: current status and outlook (1999) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 1245) [ClassicSimilarity], result of:
          0.004184813 = score(doc=1245,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 1245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1245)
      0.33333334 = coord(1/3)
    
    Abstract
    Over the past few months the International DOI Foundation (IDF) has produced a number of discussion papers and other materials about the Digital Object Identifier (DOIsm) initiative. They are all available at the DOI web site, including a brief summary of the DOI origins and purpose. The aim of the present paper is to update those papers, reflecting recent progress, and to provide a summary of the current position and context of the DOI. Although much of the material presented here is the result of a consensus by the organisations forming the International DOI Foundation, some of the points discuss work in progress. The paper describes the origin of the DOI as a persistent identifier for managing copyrighted materials and its development under the non-profit International DOI Foundation into a system providing identifiers of intellectual property with a framework for open applications to be built using them. Persistent identification implementations consistent with URN specifications have up to now been hindered by lack of widespread availability of resolution mechanisms, content typology consensus, and sufficiently flexible infrastructure; DOI attempts to overcome these obstacles. Resolution of the DOI uses the Handle System®, which offers the necessary functionality for open applications. The aim of the International DOI Foundation is to promote widespread applications of the DOI, which it is doing by pioneering some early implementations and by providing an extensible framework to ensure interoperability of future DOI uses. Applications of the DOI will require an interoperable scheme of declared metadata with each DOI; the basis of the DOI metadata scheme is a minimal "kernel" of elements supplemented by additional application-specific elements, under an umbrella data model (derived from the INDECS analysis) that promotes convergence of different application metadata sets. The IDF intends to require declaration of only a minimal set of metadata, sufficient to enable unambiguous look-up of a DOI, but this must be capable of extension by others to create open applications.
  10. Kleinz, T.: Brockhaus geht online (2008) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 1420) [ClassicSimilarity], result of:
          0.004184813 = score(doc=1420,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 1420, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1420)
      0.33333334 = coord(1/3)
    
    Content
    "Der Traditionsverlag Brockhaus beschreitet neue Wege: Die Inhalte der altehrwürdigen Enzyklopädie sollen von April an kostenlos im Internet erhältlich sein. Der Grund: Mit seinen gedruckten Enzyklopädien hat der Verlag im vergangenen Jahr Millionenverluste gemacht. Für die Beschäftigten des Bibliographischen Instituta & F. A. Brockhaus ist dies eine schlechte Nachricht. Die Gruppe kündigte bereits 50 Entlassungen an, betroffen ist insbesondere der Standort Mannheim. Hier arbeiten heute etwa 250 Beschäftigte, insgesamt hat das Unternehmen 450. Mit dem Kurswechsel endet eine fast 200-jährige Tradition. Im Jahr 1805 hatte Friedrich Arnold Brockhaus den ersten Verlag in Amsterdam gegründet und mit seiner Enzyklopädie direkt einen kommerziellen Erfolg gelandet. Seitdem erschien die Brockhaus-Enzyklopädie insgesamt 21 Mal - die vorerst letzte Auflage kam 2006 auf den Markt. Bereits im vergangenen Jahr hatte Brockhaus erste Versuche mit dem Online-Geschäftsmodell gemacht: Das Haus veröffentlichte die eher knapp gehaltenen Artikel des im gleichen Verlag erscheinenden Meyers Lexikon. Obwohl für das Projekt offiziell nicht geworben wurde, war die Nachfrage laut Firmensprecher Klaus Holoch zufriedenstellend. "Inzwischen erreichen wir Zugriffszahlen, die mit denen der Zeitschrift Brigitte vergleichbar sind." Das neuen Portal, das der Verlag über Werbeeinblendungen finanzieren will, soll deutlich erfolgreicher werden. Zum einen wird der Internet-Start durch Marketing begleitet, zum anderen sind die Inhalte des Brockhaus wesentlich umfangreicher als die bisher im Netz verfügbaren Inhalte. Trotzdem wird es das Traditionsunternehmen gegen die Konkurrenz im Internet nicht leicht haben. Am bedrohlichsten ist wohl die freie Online-Enzyklopädie Wikipedia, die von unbezahlten Freiwilligen geschrieben wird. Gegen die Kostenlos-Alternativen will Brockhaus vor allem mit Qualität punkten. "Der immer unübersichtlicher werdenden Flut von Informationen aus dem Internet stellen wir mit 'Brockhaus online' jetzt ein Wissensportal entgegen, das für Relevanz, Richtigkeit und Sicherheit steht", sagt Brockhaus-Vorstandsmitglied Marion Winkenback. Ob dies ausreichen wird, um im schnelllebigen Internet-Geschäft zu punkten, bleibt abzuwarten."
  11. Mertens, M.: ¬Ein Manager regelt Sprache und Raum (2003) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 2228) [ClassicSimilarity], result of:
          0.004184813 = score(doc=2228,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 2228, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2228)
      0.33333334 = coord(1/3)
    
    Content
    "Das menschliche Gehirn besteht aus zwei äußerlich fast spiegelgleichen Hälften. Doch die Kompetenzen der beiden Partner sind klar geregelt. Die linke Seite ist für Sprache zuständig, die räumlichen Fähigkeiten sitzen rechts. Hirnforscher um Gereon Fink vom Forschungszentrum Jülich konnten nun erstmals nachweisen, wo sich die Schaltzentrale befindet, die eingehende Aufgaben an den jeweils zuständigen Sachbearbeiter weiterleitet. Sie fanden heraus, dass ein Bereich im Stirnhirn die Arbeit im Gehirn einteilt und koordiniert, berichten sie im Wissenschaftsmagazin Science (Bd. 301, S. 384, 2003). Die Hirnforscher baten Versuchspersonen, kurze Hauptwörter zu betrachten, in denen ein Buchstabe rot gefärbt war. Nun erhielten die Teilnehmer unterschiedliche Aufträge: Mal sollten sie angeben, ob das jeweils gezeigte Wort den Buchstaben A enthielt - eine sprachliche Aufgabe also. Ein andermal wurden die Teilnehmer gefragt, ob der rote Buchstabe rechts oder links der Wortmitte stand - hier war die räumliche Wahrnehmung gefordert. Nicht der Augenschein zählt, sondern der Auftrag: Die Forscher beobachteten die erwartete Arbeitsteilung - mal war die rechte, mal die linke Hirnhälfte besonders aktiv. Mit Hilfe der Magnetresonanz-Tomographie, die misst, wie gut das Hirngewebe mit Sauerstoff versorgt wird, machten sie diejenigen Bereiche des Hirns sichtbar, die gerade intensiv arbeiteten. Dabei spürten die Neurologen einen weiteren aktiven Bereich im Stirnhirn auf, den so genannten 'anterior cingular cortex (ACC)'. Es zeigte sich, dass dieses Kontrollzentrum für Managementaufgaben zuständig ist und darüber entscheidet, welche Hirnhälfte die Arbeit erledigen muss. "Der linke Teil des ACC arbeitete immer intensiver mit der Sprach-Region der linken Hirnhälfte zusammen, während die Entscheidung zu Gunsten der Buchstabenerkennung fiel. Im anderen Fall nahm der Einfluss des rechten ACC auf den Scheitellappen der rechten Hirnhälfte zu", erklärt Teamkollege Klaas Stephan. Damit konnten die Forscher zum ersten Mal direkt verfolgen, wie die verschiedenen Regionen des Gehirns miteinander kommunizierten, während sie ein Problem beurteilten und die Zuständigkeit ermitteln. "Wir sehen auf diese Weise, wie sich die verschiedenen beteiligten Hirnregionen miteinander unterhalten, und wie sich das 'Gespräch' verändert, wenn die Aufgabe wechselt", erläutert Gereon Fink. Die Neurologen hoffen nun, dass ihre Erkenntnisse bei der Therapie von Menschen helfen können, deren Kontrollmechanismen etwa infolge eines Schlaganfalls gestört sind."
  12. Sander-Beuermann, W.; Anders, S.A.: "Besser den Marktführer meiden" : Experte warnt vor Datenhunger im Netz (2009) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 2873) [ClassicSimilarity], result of:
          0.004184813 = score(doc=2873,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 2873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2873)
      0.33333334 = coord(1/3)
    
    Content
    "Herr Sander-Beuermann, welche Suchmaschine nutzen Sie? MetaGer natürlich, weil ich weiß, was dahinter steckt und ich ihr voll vertrauen kann. Und weil ich immer das finde, was ich suche. .und weil Sie MetaGer an der Uni Hannover selbst entwickelt haben. Ja, deshalb weiß ich ja auch, was bei einer Suchabfrage im Hintergrund passiert. Bei anderen Suchmaschinen wissen die User das meist nicht. Jede Suchmaschine kann Nutzungsdaten protokollieren, und die großen werden das sicher auch tun. Es ist völlig offen, was dann mit diesen Daten passiert. Bei Benutzerzahlen von mehreren hundert Millionen in Kombination mit Erkenntnissen aus weiteren Online-Diensten können Informationen aus dem Surfverhalten gezogen werden, an die man sonst nie kommen würde. Etwa für Marktanalysen oder die Erhebung von Kaufverhalten. Was kann Google über mich persönlich erfahren? Informationen über einzelne Personen kann Google nur gewinnen, wenn sie neben der Suchmaschine auch andere Google-Tools nutzen, bei denen sie sich persönlich anmelden. Etwa Google Mail oder die Desktop-Werkzeuge von Google. Diese Informationen könnte Google kombinieren und daraus seine Schlüsse ziehen. Ist Bing eine Alternative? Durchaus. Die Qualität ist konkurrenzfähig, und es gibt bei Microsoft nicht die Fülle weiterer Dienste wie bei Google. Wenn aber das Windows-Betriebssystem die IP-Adresse an Microsoft übermitteln würde, wäre das enorm gefährlich. Diese Verbindung besteht aber meines Wissens nicht. Wie kann man also das Internet durchsuchen, ohne selbst durchsucht zu werden? Am besten sollten User sowohl beim Betriebssystem als auch bei den Suchmaschinen nicht den Marktführer benutzen. Und natürlich empfehle ich Suchmaschinen, die IP-Adressen nicht mitschreiben, wie zum Beispiel unser MetaGer oder auch Ixquick oder Scroogle. Die liefern gute Ergebnisse und sind im Hinblick auf den Datenschutz die bessere Alternative."
  13. Drauz, S.; Plieninger, J.: Nutzerwünsche sind nur bedingt RAK-kompatibel : So wird der Katalog zukunftstauglich: Recommenderdienste - Anreicherungen - Katalog 2.0 - Table of Contents (2010) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 3350) [ClassicSimilarity], result of:
          0.004184813 = score(doc=3350,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 3350, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3350)
      0.33333334 = coord(1/3)
    
    Abstract
    So gewohnt der über das Netz nutzbare Katalog mittlerweile ist, die Entwicklung ist immer noch nicht an ihr Ende gekommen. Verschiedene Funktionalitäten wie Inhaltsangaben, Register, Cover, Empfehlungen zu ähnlicher Literatur sowie Merkmale von Web 2.0 wie Personalisierbarkeit, Listenerstellung, gemeinsame Nutzung und Erschließung sowie RSS können noch hinzukommen - freilich mit unterschiedlicher Wahrscheinlichkeit. Technische, rechtliche und - nicht zu vergessen - wirtschaftliche Schranken machen es unwahrscheinlich, dass alles auf einmal eingeführt werden wird. In diesem Artikel sollen die verschiedenen Versatzstücke eines »Katalogs der Zukunft« dargestellt und bewertet werden, um einen Ausblick zu geben, wohin die Reise gehen kann und wird. Wann der Aufbruch stattfindet und welches die verschiedenen Verweilstationen sind, das ist Sache der Politik, der Finanzen und der Technik; ihre Durchsetzungskraft, Akzeptanz und Rahmenbedingungen die einer jeden Bibliothek. Thema ist aber auch der »Katalog der Gegenwart« und seine bis heute vielfach unausgeschöpften Möglichkeiten. Hier sollen deren Nutzen aufgezeigt, die finanzielle und personelle Machbarkeit erörtert und bibliothekarische Vorbehalte beseitigt werden.
  14. Chowdhury, G.: Carbon footprint of the knowledge sector : what's the future? (2010) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 4152) [ClassicSimilarity], result of:
          0.004184813 = score(doc=4152,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 4152, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4152)
      0.33333334 = coord(1/3)
    
    Abstract
    Purpose - The purpose of this paper is to produce figures showing the carbon footprint of the knowledge industry - from creation to distribution and use of knowledge, and to provide comparative figures for digital distribution and access. Design/methodology/approach - An extensive literature search and environmental scan was conducted to produce data relating to the CO2 emissions from various industries and activities such as book and journal production, photocopying activities, information technology and the internet. Other sources such as the International Energy Agency (IEA), Carbon Monitoring for Action (CARMA ), Copyright Licensing Agency, UK (CLA), Copyright Agency Limited, Australia (CAL), etc., have been used to generate emission figures for production and distribution of print knowledge products versus digital distribution and access. Findings - The current practices for production and distribution of printed knowledge products generate an enormous amount of CO2. It is estimated that the book industry in the UK and USA alone produces about 1.8 million tonnes and about 11.27 million tonnes of CO2 respectively. CO2 emission for the worldwide journal publishing industry is estimated to be about 12 million tonnes. It is shown that the production and distribution costs of digital knowledge products are negligible compared to the environmental costs of production and distribution of printed knowledge products. Practical implications - Given the astounding emission figures for production and distribution of printed knowledge products, and the associated activities for access and distribution of these products, for example, emissions from photocopying activities permitted within the provisions of statutory licenses provided by agencies like CLA, CAL, etc., it is proposed that a digital distribution and access model is the way forward, and that such a system will be environmentally sustainable. Originality/value - It is expected that the findings of this study will pave the way for further research and this paper will be extremely helpful for design and development of the future knowledge distribution and access systems.
  15. Hebestreit, S.: "Es darf keine auf ewig festgelegten IP-Adressen geben" : Internetprotokoll IPv6 (2012) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 226) [ClassicSimilarity], result of:
          0.004184813 = score(doc=226,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=226)
      0.33333334 = coord(1/3)
    
    Content
    "Grundsätzliche Bedenken gegen den neuen IPv6-Standard möchte Thilo Weichert nicht formulieren. Doch der Datenschutzbeauftragte des Landes Schleswig-Holstein sieht ein wachsendes Risiko, dass mit dem neuen Standard "genaue Profile von Nutzern angelegt werden können". Genau dies gelte es aber zu verhindern. Deshalb wirbt Weichert, einer der renommiertesten Datenschützer der Republik, dafür, die Vergabe von festen IP-Adressen für technische Geräte zu verhindern. "Als Datenschützer arbeiten wir ganz massiv darauf hin, dass eben keine auf ewig festgelegten IP-Nummern vergeben werden", sagte er im Gespräch mit der Frankfurter Rundschau. Er sieht sonst die Gefahr, dass es vergleichsweise einfach wird, Nutzerprofile zu erheben. Ständiger Kennzeichenwechsel Relativ einfach könnten Informationen über Nutzer miteinander verknüpft werden. Über feste IP-Adressen sei herauszubekommen, über welches Smartphone ein Nutzer verfügt, wie alt sein Kühlschrank ist, welche Kaffeemaschine er hat und wie häufig er von seinem Heim-Rechner aus im Internet unterwegs ist. Daten, die die wenigsten Nutzer gerne preisgeben. Daten auch, an denen Industrie, Handel und Werbung sehr interessiert sind. Weicherts Vorschlag: "Die Adressen sollten weiterhin dynamisch vergeben wird." Schon bisher werden IP-Adressen immer wieder gewechselt, weil nicht für alle Nutzer zu jedem möglichen Zeitpunkt ausreichend Adressen vorhanden sind. So bewegen sich Internetnutzer quasi mit wechselndem Kennzeichen durchs Internet. Nur der Provider, der Internetanbieter, kann anhand seiner Datenbank ermitteln, welcher Anschluss sich zu einem bestimmten Zeitpunkt mit einer bestimmten IP-Adresse im Netz bewegt hat. Datenschützer sehen in diesem ständigen Wechsel einen wichtigen Schutz der Privatsphäre. Mit dem neuen Standard besteht der Engpass nicht mehr. Für jeden Nutzer und für all seine internetfähigen Geräte ist eine eigene Nummer vorrätig. Dennoch, so verlangen es die deutschen Datenschützer, sollten die Adressen weiterhin gewechselt werden. "Wir wollen die geltenden Standards von IPv4, die eine Identifizierung erschweren, deshalb fortschreiben", sagt Weichert. Die Industrie dringt auf feste IP-Adressen, weil sie ein großes Interesse an den anfallenden Daten hat - um Werbung zu schalten, um das Nutzerverhalten erfassen und die Daten auswerten zu können. "Es besteht ein echter Interessenkonflikt", sagt Weichert. Es drohe eine Auseinandersetzung zwischen den Verwertungsinteressen der Industrie an den zusätzlichen digitalen Spuren, die mit IPv6 möglich sind, und den Interessen von Datenschützern, Verbrauchern - "und hoffentlich der Politik". Einen Vorteil könnte IPv6 aber auch bieten, die Chance auf mehr Anonymität im Netz. Denn durch die viel höhere Zahl an möglichen IP-Adressen wird es künftig schwerer werden, einzelne Nutzer oder Geräte zuordnen zu können - solange IP-Nummern weiter dynamisch vergeben werden."
  16. Falavarjani, S.A.M.; Jovanovic, J.; Fani, H.; Ghorbani, A.A.; Noorian, Z.; Bagheri, E.: On the causal relation between real world activities and emotional expressions of social media users (2021) 0.00
    0.0013949376 = product of:
      0.004184813 = sum of:
        0.004184813 = weight(_text_:in in 243) [ClassicSimilarity], result of:
          0.004184813 = score(doc=243,freq=2.0), product of:
            0.069613084 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.051176514 = queryNorm
            0.060115322 = fieldWeight in 243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=243)
      0.33333334 = coord(1/3)
    
    Abstract
    Social interactions through online social media have become a daily routine of many, and the number of those whose real world (offline) and online lives have become intertwined is continuously growing. As such, the interplay of individuals' online and offline activities has been the subject of numerous research studies, the majority of which explored the impact of people's online actions on their offline activities. The opposite direction of impact-the effect of real-world activities on online actions-has also received attention but to a lesser degree. To contribute to the latter form of impact, this paper reports on a quasi-experimental design study that examined the presence of causal relations between real-world activities of online social media users and their online emotional expressions. To this end, we have collected a large dataset (over 17K users) from Twitter and Foursquare, and systematically aligned user content on the two social media platforms. Users' Foursquare check-ins provided information about their offline activities, whereas the users' expressions of emotions and moods were derived from their Twitter posts. Since our study was based on a quasi-experimental design, to minimize the impact of covariates, we applied an innovative model of computing propensity scores. Our main findings can be summarized as follows: (a) users' offline activities do impact their affective expressions, both of emotions and moods, as evidenced in their online shared textual content; (b) the impact depends on the type of offline activity and if the user embarks on or abandons the activity. Our findings can be used to devise a personalized recommendation mechanism to help people better manage their online emotional expressions.

Authors

Languages

Types

  • el 813
  • b 60
  • p 3
  • i 1
  • s 1
  • x 1
  • More… Less…

Themes