Search (1360 results, page 68 of 68)

  • × language_ss:"d"
  • × year_i:[2010 TO 2020}
  1. Swiss Academic Software: Citavi - neue Funktionen im neuen Kleid (2010) 0.00
    0.0023948234 = product of:
      0.0071844696 = sum of:
        0.0071844696 = product of:
          0.014368939 = sum of:
            0.014368939 = weight(_text_:von in 3668) [ClassicSimilarity], result of:
              0.014368939 = score(doc=3668,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.117907785 = fieldWeight in 3668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3668)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Für den internationalen Einsatz wechselt Citavi 3 im laufenden Betrieb zwischen der deutschen und englischen Oberfläche - besonders praktisch für mehrsprachige Teams, die für ihre gemeinsameArbeitan einem Thema auch die neue Team-Version nutzen können. Hier werden Citavi-Projekte auf einem Netzlaufwerk gespeichert und können von mehreren Personen gleichzeitig bearbeitet werden. Professionelle Rechercheure werden Citavis erweiterte Online-Suche zu schätzen wissen: Die Software bildet für jede der über 4400 Informationsquellen deren spezifische Suchmöglichkeiten ab und kombiniert sie zu einer Schnittmenge, wenn gleichzeitig in mehreren Datenbanken oder Bibliothekskatalogen gesucht werden soll. Die Recherche-Strategie lässt sich speichern, damit jederzeit nachvollziehbar ist, wann in welcher Datenbank mit welchem Suchstring recherchiert wurde."
  2. Franke, F; Klein, A.; Schüller-Zwierlein, A.: Schlüsselkompetenzen : Literatur recherchieren in Bibliotheken und Internet (2010) 0.00
    0.0023948234 = product of:
      0.0071844696 = sum of:
        0.0071844696 = product of:
          0.014368939 = sum of:
            0.014368939 = weight(_text_:von in 4721) [ClassicSimilarity], result of:
              0.014368939 = score(doc=4721,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.117907785 = fieldWeight in 4721, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4721)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Tipps und Tricks für effizientes Recherchieren und fehlerfreies Zitieren - Unerlässlich im Studium und in vielen Berufen. Mit praktischen Recherchebeispielen, Checklisten, Infokästen, Abbildungen und GrafikenGewusst wie! Von der Auswahl der Datenbanken und Suchmaschinen, über den Einsatz der geeigneten Suchbegriffe und die Auswertung der Ergebnisse, bis hin zum korrekten Zitieren und dem Erstellen eigener Literaturlisten der Ratgeber demonstriert Schritt für Schritt, wie man die passende Literatur, z. B. für Seminar- und Hausarbeiten, findet und verarbeitet. Berücksichtigt werden dabei nicht nur gedruckte Quellen, wie Bücher, Zeitschriften und Zeitungen, sondern auch frei verfügbare oder lizenzpflichtige Internet-Ressourcen.
  3. ¬Das Ende der Bibliothek? : vom Wert der Materialität im virtuellen Zeitalter ; Tagungsband Gotha, April 2010. (2011) 0.00
    0.0023948234 = product of:
      0.0071844696 = sum of:
        0.0071844696 = product of:
          0.014368939 = sum of:
            0.014368939 = weight(_text_:von in 584) [ClassicSimilarity], result of:
              0.014368939 = score(doc=584,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.117907785 = fieldWeight in 584, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=584)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Aus dem Inhalt: G. Siebeck: Die Vielfalt der Bibliotheken und die Produktion der Verlage - C. Heibach: Über das Problem des Vergessens im digitalen Zeitalter - U. Jochum: Die Selbstabschaffung der Bibliotheken - M. Knoche: Original oder digital? Die Rekonstruktion des verbrannten Buchbestandes in Weimar - B. Fischer: Von der "Handschrift" zum Digitalisat. Kehrseiten der Wissensgesellschaft - A. Schlechter: Archäologisches Objekt, Exemplar, Ensemble. Was bleibt vom alten Buch? - R. Reuß: Das Buch und seine Typographie in Zeiten der Hypnose.
  4. Csákány, B.: Vom Zettelkatalog zum Volltext : über die Entwicklung und Funktion des Kataloges am Beispiel der Österreichischen Nationalbibliothek (2012) 0.00
    0.0023948234 = product of:
      0.0071844696 = sum of:
        0.0071844696 = product of:
          0.014368939 = sum of:
            0.014368939 = weight(_text_:von in 600) [ClassicSimilarity], result of:
              0.014368939 = score(doc=600,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.117907785 = fieldWeight in 600, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=600)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Katalog der Österreichischen Nationalbibliothek (ÖNB) hat, seit seiner ersten Erscheinungsform als Bandkatalog 1576, eine lange Entwicklung durchgemacht. Zu Beginn dieser Arbeit, im Historischen Abriss, wird kurz auf die Kataloggeschichte der ÖNB eingegangen, danach folgt die Darstellung der verschiedenen Retrokatalogisierungs- sowie den Katalogoptimierungsprojekten. Im Jahr 1997 stand die Retrokatalogisierung im Vordergrund, bei der die maschinengetippten Katalogzettel gescannt, OCR gelesen und über den KatZoom (eine Software-Eigenentwicklung) online zur Verfügung gestellt wurden. 1992 begann man mit der EDV-unterstützen Katalogisierung im Bibliothekssystem BIBOS. Mit der Umstellung 1999 auf das neue Bibliothekssystem Aleph500 wurden die Daten aus BIBOS als ONB01 in das neue System konvertiert. Im Jahr 2000 wurden der alte Nominalkatalog (1501-1929) und der dazugehörige Schlagwortkatalog konvertiert und als ONB02 nach Aleph500 migriert. Im darauffolgenden Jahr wurden auch der neue Nominalkatalog (1930-1991, sog. PI-Katalog) und der dazugehörende Schlagwortkatalog konvertiert und als ONB03 nach Aleph500 migriert. Parallel dazu wurden auch andere Sammlungskataloge, wie z.B. der Katalog in der Musiksammlung oder der Kartensammlung, bearbeitet. Für die Jahre 2007-2011 wurde ein Strategieplan zur Katalogoptimierung erarbeitet, der zum Ziel hatte, dass in Zukunft der Bestand über eine integrierte Gesamtsuche zugänglich sein soll. Dafür war die Implementierung von Suchmaschinen-Technologie für den OPAC geplant. Deswegen mussten in Folge die damals noch getrennten drei Druckschriftenkataloge (ONB01, ONB02 und ONB03) zusammengeführt werden. Zu diesem Zweck wurden zuerst in der ONB03 die Impressen aus dem Textblock herausgelöst. Dasselbe galt für die Impressen aus der ONB02. Danach wurden in beiden Katalogen die Verweisungen mit den dazugehörigen Hauptaufnahmen zusammengeführt. Schließlich wurden die beiden historischen Kataloge in die ONB01 migriert. Darauf folgte der Abgleich der Schlagworte aus der ONB03 mit der Schlagwortnormdatei. In Folge wurden auch die Schlagworte der ONB02 mit der Normdatei abgeglichen. Im April 2011 wurde dann die einheitliche Suchoberfläche Quick Search implementiert. Doch auch wichtige Projekte zur Kataloganreicherung (wie z.B. IV-Scan) und Projekte zur Massendigitalisierung, wie ANNO (Austrian Newspaper Online) und ALEX (Historische österreichische Rechts- und Gesetzestexte), werden in meiner Arbeit behandelt. Diese Master-These soll eine kompakte Zusammenfassung aller wichtigen Retro- und Katalogoptimierungsprojekte der ÖNB bieten.
  5. Lehmann, M.: Neue Tools für die Online-Recherche : EU-Projekt EEXCESS veröffentlicht vier neue Prototypen (2015) 0.00
    0.0023948234 = product of:
      0.0071844696 = sum of:
        0.0071844696 = product of:
          0.014368939 = sum of:
            0.014368939 = weight(_text_:von in 2324) [ClassicSimilarity], result of:
              0.014368939 = score(doc=2324,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.117907785 = fieldWeight in 2324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2324)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Mitteilung an Inetbib vom 17.11.2015: "die EEXCESS <http://www.eexcess.eu/>-Projektpartner, darunter auch die ZBW - Leibniz Informationszentrum Wirtschaft, stellen vier Prototypen für die personalisierte Daten- und Literaturrecherche vor. Ziel der neuen Software ist es, dem Nutzer bei der wissenschaftlichen Arbeit genau die Spezialressourcen zugänglich zu machen, die zu seinem Profil und zu seinem aktuellen Suchverhalten passen. Dazu wurden neuartige Empfehlungstechnologien entwickelt. Das EU-Projekt EEXCESS befasst sich seit Anfang 2013 mit neuen Methoden der Informationsbereitstellung im Internet. Prof. Dr. Klaus Tochtermann, Direktor der ZBW: "Ich freue mich, dass wir nach dreijähriger Forschungsarbeit diese neuen Recherchewerkzeuge zugänglich machen können. Wir läuten damit einen grundsätzlichen Paradigmenwechsel ein: Bringt die Inhalte zu den Nutzern, nicht die Nutzer zu den Inhalten!" Über ein Userinterface, das in den Google-Chrome-Browser, in den Google-Docs-Editor, in die Blogsoftware WordPress oder auch in das Lernmanagementsystem Moodle integriert werden kann, erhalten die Nutzerinnen und Nutzer automatisch auf sie persönlich zugeschnittene Empfehlungen aus kulturhistorischen Datenbanken wie www.europeana.eu <http://www.europeana.eu> oder auch aus wissenschaftlichen Literaturdatenbanken wie www.mendeley.com <http://www.mendeley.com> (wissenschaftliche Aufsätze) oder www.econbiz.de <http://www.econbiz.de> (wirtschaftswissenschaftliche Literatur). Diese Vorschläge können sie dann bei Bedarf beispielsweise direkt als Referenzen in ihre Texte einbinden. Die Anzahl der an die Software angeschlossenen Datenbanken wird laufend erweitert. Nach einer ersten Beta-Phase im letzten Jahr stehen nun neue Versionen der Prototypen zum kostenlosen Download bereit. Die Links sind auf www.eexcess.eu <http://www.eexcess.eu> zu finden. An dem Forschungsprojekt beteiligt sind insgesamt zehn internationale Projektpartner, darunter die ZBW - Leibniz Informationszentrum Wirtschaft <http://www.zbw.eu/>. Hier wurde das Plug-In für die Blogsoftware WordPress maßgeblich mitentwickelt. Blogger können damit, noch während sie ihren Post verfassen, nach geeigneten Referenzen oder auch Bildern suchen. Zudem kann die ZBW mit ihrer großen Online-Nutzerbasis eine sehr gute Testumgebung für die verschiedenen Tools bieten. Einzelne Visualisierungselemente, die im Projekt entwickelt wurden, kommen zukünftig auch im ZBW-Rechercheportal EconBiz zum Einsatz und können dort getestet werden. Darüber hinaus werden EconBiz-Inhalte über die EEXCESS-Module auch in beliebige andere Umgebungen eingebunden. Die weiteren Projektpartner kommen aus Österreich, Großbritannien, Frankreich, der Schweiz und Deutschland. Die wissenschaftliche Leitung hat Professor Michael Granitzer von der Universität Passau, die allgemeine Projektleitung liegt beim Forschungsinstitut Joanneum Research aus Graz. Das Projektvolumen beträgt insgesamt ca. 6,9 Millionen Euro, Projektlaufzeit ist noch bis Juli 2016.
  6. Henrichs, N.: Menschsein im Informationszeitalter : Informationswissenschaft mit Leidenschaft und missionarischem Eifer. Pioniere der Informationswissenschaft - Norbert Henrichs (2014) 0.00
    0.0023948234 = product of:
      0.0071844696 = sum of:
        0.0071844696 = product of:
          0.014368939 = sum of:
            0.014368939 = weight(_text_:von in 3040) [ClassicSimilarity], result of:
              0.014368939 = score(doc=3040,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.117907785 = fieldWeight in 3040, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3040)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Zitat aus dem Geleitwort von R. Kuhlen: ""Heutzutage ist im Prinzip alles, was veröffentlicht ist, digital zugänglich, sodass gefragt werden könnte, ob solche auf einzelne Personen bezogenen Herausgaben noch zeitgemäß sind. Doch, sie sind es. Die Welt der Wissenschaft hat auch vor, sagen wir 1990 existiert. Die meisten Arbeiten aus der Zeit davor wurden analog publiziert und existieren im digitalen Gedächtnis des Internets einfach nicht. Wer nicht weiß, woher er kommt, hat Probleme auszumachen, wohin er oder sie in der Zukunft gehen soll. Das gilt auch für Fachdisziplinen."
  7. AG KIM Gruppe Titeldaten DINI: Empfehlungen zur RDF-Repräsentation bibliografischer Daten (2014) 0.00
    0.0023948234 = product of:
      0.0071844696 = sum of:
        0.0071844696 = product of:
          0.014368939 = sum of:
            0.014368939 = weight(_text_:von in 4668) [ClassicSimilarity], result of:
              0.014368939 = score(doc=4668,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.117907785 = fieldWeight in 4668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4668)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In den letzten Jahren wurde eine Vielzahl an Datensets aus Kultur- und Wissenschaftseinrichtungen als Linked Open Data veröffentlicht. Auch das deutsche Bibliothekswesen hat sich aktiv an den Entwicklungen im Bereich Linked Data beteiligt. Die zuvor lediglich in den Bibliothekskatalogen vorliegenden Daten können weiteren Sparten geöffnet und so auf vielfältige Weise in externe Anwendungen eingebunden werden. Gemeinsames Ziel bei der Veröffentlichung der Bibliotheksdaten als Linked Data ist außerdem, Interoperabilität und Nachnutzbarkeit zu ermöglichen und sich auf diese Weise stärker mit anderen Domänen außerhalb der Bibliothekswelt zu vernetzen. Es bestehen sowohl Linked-Data-Services einzelner Bibliotheken als auch der deutschen Bibliotheksverbünde. Trotz ihres gemeinsamen Ziels sprechen die bestehenden Services nicht die gleiche Sprache, da sie auf unterschiedlichen Modellierungen basieren. Um die Interoperabilität dieser Datenquellen zu gewährleisten, sollten die Dienste künftig einer einheitlichen Modellierung folgen. Vor diesem Hintergrund wurde im Januar 2012 eine Arbeitsgruppe gegründet, in der alle deutschen Bibliotheksverbünde, die Deutsche Nationalbibliothek sowie einige weitere interessierte und engagierte Kolleginnen und Kollegen mit entsprechender Expertise vertreten sind. Die Gruppe Titeldaten agiert seit April 2012 als Untergruppe des Kompetenzzentrums Interoperable Metadaten (DINI-AG KIM). Die Moderation und Koordination liegt bei der Deutschen Nationalbibliothek. Im Dezember 2012 schloss sich auch der OBVSG der Arbeitsgruppe an. Die Schweizerische Nationalbibliothek folgte im Mai 2013. Vorliegende Empfehlungen sollen zu einer Harmonisierung der RDFRepräsentationen von Titeldaten im deutschsprachigen Raum beitragen und so möglichst einen Quasi-Standard etablieren. Auch international wird an der Herausforderung gearbeitet, die bestehenden bibliothekarischen Strukturen in die heute zur Verfügung stehenden Konzepte des Semantic Web zu überführen und ihren Mehrwert auszuschöpfen. Die neuesten internationalen Entwicklungen im Bereich der Bereitstellung bibliografischer Daten im Semantic Web wie die Bibliographic Framework Transition Initiative der Library of Congress (BIBFRAME) haben ebenfalls das Ziel, ein Modell zur RDF-Repräsentation bibliothekarischer Daten bereitzustellen. Die Gruppe Titeldaten beobachtet diese Entwicklungen und beabsichtigt, die Erfahrungen und Anforderungen der deutschsprachigen Bibliothekswelt mit einzubringen. Dabei werden einerseits international erarbeitete Empfehlungen aufgegriffen und andererseits Impulse aus der nationalen Kooperation dort eingebracht. Die hier verwendeten Properties könnten z. B. als Grundlage für ein Mapping zu BIBFRAME dienen.
  8. Heuer, S.; Tranberg, P.: Mich kriegt ihr nicht : die wichtigsten Schritte zur digitalen Selbstverteidigung (2019) 0.00
    0.0023948234 = product of:
      0.0071844696 = sum of:
        0.0071844696 = product of:
          0.014368939 = sum of:
            0.014368939 = weight(_text_:von in 5667) [ClassicSimilarity], result of:
              0.014368939 = score(doc=5667,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.117907785 = fieldWeight in 5667, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5667)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Wer sich online bewegt, ist nie allein. Im doppelten Sinne. Denn wenn wir das Leben um uns herum im Netz verfolgen wollen, nehmen wir in Kauf, dass uns Google, Amazon, Facebook & Co. auf Schritt und Klick verfolgen. Tausende Firmen profitieren davon, auf Basis unserer Likes und Klicks, sowie unseres Kaufverhaltens Werbung und Inhalte personalisiert auszuspielen und uns damit zu manipulieren. Mit jedem neuen Datensatz werden die Produkte noch enger an unsere Vorlieben angepasst, sodass wir sie noch häufiger nutzen ein Teufelskreis. Aber können wir uns dagegen wirklich verteidigen? Ja, sagt Digital-Experte Steffan Heuer auch heute noch. Sein Buch `Mich kriegt ihr nicht!´ ist eine Gebrauchsanweisung und gleichzeitig eine Waffe, mit der wir unsere Online-Identität mit einer neuen Daten-Ethik schützen können selbst in Zeiten von Smart Speakern wie Alexa und dem Internet der Dinge. Der Kampf um unsere Daten ist ein Kampf um unsere Souveränität, um unsere Freiheit! Und als solcher ist er noch lange nicht verloren wir müssen den Datendieben nur mit der richtigen digitalen Selbstverteidigung entgegentreten, nämlich mit den vier V´s: Wir müssen unsere Daten verweigern, verschleiern, verschlüsseln und Räume schaffen, aus denen alle Smart-Geräte verbannt sind. Wie das funktioniert, zeigt und erklärt der komplett überarbeitete Bestseller `Mich kriegt ihr nicht!´.
  9. dpa: Benutzer können künftig mit Google sprechen : Konzern stellt Neuerungen auf Entwicklerkonferenz vor (2013) 0.00
    0.0020954704 = product of:
      0.006286411 = sum of:
        0.006286411 = product of:
          0.012572822 = sum of:
            0.012572822 = weight(_text_:von in 765) [ClassicSimilarity], result of:
              0.012572822 = score(doc=765,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.103169315 = fieldWeight in 765, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=765)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    "Eigentlich müssten die Besucher der GoogleEntwicklerkonferenz I/O in diesem Jahr enttäuscht sein: Alle Spekulationen im Vorfeld der Konferenz über ein neues Android-Betriebssystem sowie über einen Tablet-Computer mit Super-Display erwiesen sich am Mittwoch (Ortszeit) als Luftnummer. Und die über drei Stunden dauernde Eröffnungsveranstaltung wurde auch nicht wie im vergangenen Jahr durch die Aktion mutiger Fallschirmspringer aufgelockert. Sie hatten damals ihren Flug von einem Luftschiff auf das Dach des Konferenzcenters live mit einem Prototypen der Cyberbrille Google Glass als Videostream auf eine riesige Leinwand übertragen. Als Flop wird die Google I/O 2013 aber nicht in die Technik-Geschichte eingehen, ganz im Gegenteil. Rückblickend könnte die Entwicklerkonferenz als der Zeitpunkt eingeschätzt werden, an dem Google die Internet-Suche neu erfunden hat. Für die meisten Internet-Anwender ist die Google-Suche synonym mit dem Eintippen eines Begriffs in einen einfach gestalteten Suchschlitz. Das wird sich ändern. Künftig werden Suchabfragen immer öfter - auch auf dem Desktop-Computer - in gesprochener Sprache erfolgen. Der Befehl "Okay Google" öffnet das virtuelle Ohr. Danach kann man der Suchmaschine wie einem Menschen mündlich eine Frage stellen: "Wie ist das Wetter in Berlin?". Google versteht dann auch die Abschlussfrage "Und in München?" richtig, obwohl in dem Kurzsatz das Wort "Wetter" gar nicht mehr auftaucht. Google-Manager Amit Singhal sieht damit "das Ende der Suche - wie wir sie kennen" in naher Zukunft kommen. Das liegt zum einen an dem Wissensschatz, der sich inzwischen in den Google-Servern angehäuft hat und über Technologien wie den "Google Knowledge Graph" effizient abgerufen werden kann. Dazu kommt aber auch eine "soziale" Komponente, da der US-Konzern fast alles über die Vorlieben seinen Anwender weiß - zumindest wenn diese bereit sind, diese mit ihm zu teilen. Das führt dazu, dass es künftig nicht mehr eine einzige universelle Internet-Suche gibt, sondern unzählige verschiedene Suchergebnisse, die stets auf die Präferenzen der User angepasst sind.
  10. Walravens, H.: ISBN - International Standard Book Number : bibliography ; literature on the ISBN and ISMN (International Standard Music Number) from all over the world : compiled and with a review about 40 years ISBN = ISBN - Internationale Standard Buchnummer (2011) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 3036) [ClassicSimilarity], result of:
          0.00625602 = score(doc=3036,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 3036, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=3036)
      0.33333334 = coord(1/3)
    
    Language
    e
  11. Unzicker, A.: Vom Urknall zum Durchknall (2010) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 3143) [ClassicSimilarity], result of:
          0.00625602 = score(doc=3143,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 3143, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=3143)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2010, H.8, S.99-100 (E. Scheunemann)
  12. Wissen, D.: Web2.0-Opac bietet mehr Service : Dritter Medientag in Frankfurt an der Oder / Neue Produkte und Dienstleistungen vorgestellt (2011) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 4175) [ClassicSimilarity], result of:
          0.00625602 = score(doc=4175,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 4175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4175)
      0.33333334 = coord(1/3)
    
    Content
    Folgende Neuerungen im Web2.0-Opac stehen den Lesern zur Verfügung: - Durch Mashups können weitere Informationen zu Suchworten oder markierten Begriffen aufgespürt werden in Wikipedia, Google-Buchsuche, You-Tube, Amazon. - Ein Rating erlaubt den Lesern die Bewertung einzelner Medien mit Sternen und die Empfehlung an Freunde per E-Mail. - Mit Social Bookmarks (Links zu Facebook, Twitter, MySpace, Mr. Wrong, et cetera) gelangen Leser per Mausklick zum Medium in ihrer Bibliothek. Merklisten können weitergegeben oder veröffentlicht werden. - Bibliotheks-News und Informationen zum Leserkonto sind per RSS-Feed zu abonnieren.
  13. Stock, W.G.: Informationelle Städte im 21. Jahrhundert (2011) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 4511) [ClassicSimilarity], result of:
          0.00625602 = score(doc=4511,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 4511, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4511)
      0.33333334 = coord(1/3)
    
    Abstract
    Informationelle Städte sind prototypische Städte der Wissensgesellschaft. Als informationelle Weltstädte sind sie neue Zentren der Macht. In ihnen dominieren gemäß Manuel Castells - neben den Spaces of Place - die Spaces of Flow (Kapital-, Macht- und Informationsflüsse). Zentral sind die IKT-Infrastruktur und die kognitive Infrastruktur (Basis der Wissensstadt und der kreativen Stadt) sowie das Wissensmanagement auf Stadtebene. Digitale Bibliotheken sorgen für den Zugriff auf das explizite Weltwissen. Zur Stimulierung lokaler impliziter Informationsflüsse schafft die informationelle Stadt kreative Cluster und Orte persönlicher Kontakte. In informationellen Städten herrschen Einkommens- und Berufspolarisierung zugunsten gut ausgebildeter Arbeitskräfte. Finanzdienstleister, wissensintensive High-tech-Industriefirmen, Firmen der Informationswirtschaft sowie weitere kreative wie wissensintensive Dienstleister bestimmen die Unternehmensstruktur solcher Städte. Attraktive Einrichtungen für Kultur, Freizeitgestaltung und Konsum bilden weiche Standortfaktoren. Wesentlich für den Aufbau einer informationellen Stadt sind der politische Wille und das Setzen regulierender Maßstäbe (E-Governance). Der Artikel arbeitet Indikatoren heraus, mittels derer der Grad der "Informationalität" einer Stadt bestimmbar wird und versucht auf Basis der Prinzipien der Netzökonomie eine Hypothese aufzustellen, warum bestimmte Städte den Übergang zu informationellen Städten bewältigen und andere (die in relative Bedeutungslosigkeit versinken) nicht.
  14. Bauer, B.; Hinterhofer, C.; Lindpointner, R.; Neuböck, I.; Steiner, J.: Zukunftsperspektiven für den Österreichischen Bibliotheksverbund : Anforderungen an ein zukünftiges Bibliothekssystem aus der Perspektive der Österreichischen Nationalbibliothek, der Universitätsbibliotheken, der Landesbibliotheken, der Bibliotheken der Pädagogischen Hochschulen und der Verwaltungs- und Amtsbibliotheken (2011) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 4528) [ClassicSimilarity], result of:
          0.00625602 = score(doc=4528,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 4528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4528)
      0.33333334 = coord(1/3)
    
    Content
    Anforderungen an ein zukünftiges Bibliothekssystem aus der Perspektive ... a) der Österreichischen Nationalbibliothek (Josef Steiner) b) der Universitätsbibliotheken (Bruno Bauer) c) der Landesbibliotheken (Rudolf Lindpointner) d) der Pädagogischen Hochschulen (Christine Hinterhofer) e) der Verwaltungs- und Amtsbibliotheken (Inge Neuböck)
  15. Griebel, R.; Lipp. A.; Tröger, B.: Den Wandel gestalten : Informations-Infrastrukturen im digitalen Zeitalter (2011) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 4715) [ClassicSimilarity], result of:
          0.00625602 = score(doc=4715,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 4715, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4715)
      0.33333334 = coord(1/3)
    
    Abstract
    Seit den ersten Annäherungsversuchen der Bibliothekswelt an die elektronische Datenverarbeitung bis heute ist bereits ein langer Weg zurückgelegt worden. Am Beginn stand in den 1970er und 1980erJahren die Automatisierung der bibliotheksinternen Arbeitsprozesse, die Katalogisierung anfänglich im Offline-Verfahren, die Ausleihverbuchung und die Erwerbungsautomatisierung, woraus sich integrierte Lokalsysteme entwickelten. Mit dem World Wide Web waren die Voraussetzungen für den OPAC,einen Meilenstein im Aufbau endnutzerorientierter bibliothekarischer Dienstleistungen, vor allem aber auch für die grundlegende Veränderung des Literaturmarktes gegeben: neben der klassischen Printwelt bildete sich seit der zweiten Hälfte der-1990er Jahre ein rasant wachsendes Angebot an elektronischen Medien - Datenbanken, elektronischen Zeitschriften und E-Books-heraus, eine gewaltige Herausforderung für die wissenschaftlichen Bibliotheken. Dazu trat seit Mitte der iggoer Jahre die Retrodigitalisierung der Bibliotheksbestände. Im ersten Jahrzehnt des 21. Jahrhunderts stand dann der konsequente Ausbau eines strikt nutzerorientierten innovativen Dienstleistungsangebots im Mittelpunkt - genannt seien Stichworte wie Such maschinentechnologie, Kataloganreicherung, SFX-Technologie oder Web 2.0.
  16. 80 years of Zentralblatt MATH : 80 footprints of distinguished mathematicians in Zentralblatt (2011) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 4737) [ClassicSimilarity], result of:
          0.00625602 = score(doc=4737,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 4737, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4737)
      0.33333334 = coord(1/3)
    
    Language
    e
  17. Griebel, R.: die Ablösung der Sondersammelgebiete durch die Fachinformationsdienste für die Wissenschaft : ¬Ein »folgenreicher« Paradigmenwechsel (2014) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 2541) [ClassicSimilarity], result of:
          0.00625602 = score(doc=2541,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 2541, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=2541)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Beitrag stellt die Probleme dar, die aus der Transformation der DFG-Sondersammelgebiete in Fachinformationsdienste resultieren. Der Aufsatz, der das in diesem Kontext gezeichnete Bild des SSG-Systems unter einigen Aspekten korrigiert und aufzeigt, dass wesentliche Elemente des FID-Systems bereits lange Kontinuitäten zu älteren Förderkonzepten der DFG aufweisen, setzt sich kritisch mit dem Paradigmenwechsel vom umfassenden vorsorgenden Bestandsaufbau zum selektiven Bestandsaufbau und den Konsequenzen einer strikten »E-Only-Policy« in der gegenwärtigen Phase auseinander. Er entlarvt die Legitimation des Paradigmenwechsels aus der maßgeblichen Mitgestaltung der Fachcommunity beim Bestandsaufbau als Fiktion. Der Prozess des kurzwegigen Übergangs in ein neues Diensteparadigma deutet darauf hin, dass das Verständnis für die größeren Zusammenhänge einer nachhaltigen, stabilen und verlässlichen Literaturversorgung auf Spitzenniveau abhanden gekommen ist.
  18. Hitzler, P.; Krötzsch, M.; Rudolph, S.: Foundations of Semantic Web technologies (2010) 0.00
    0.0019660776 = product of:
      0.0058982326 = sum of:
        0.0058982326 = weight(_text_:e in 359) [ClassicSimilarity], result of:
          0.0058982326 = score(doc=359,freq=4.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.08983562 = fieldWeight in 359, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=359)
      0.33333334 = coord(1/3)
    
    Classification
    TVU (E)
    GHBS
    TVU (E)
  19. Deeg, C.: Apps downloaden ist wichtiger als RAK : Bibliotheken müssen sich endlich auf die mobile digitale Herausforderung einstellen: Serviceangebote statt Bestand erweitern (2013) 0.00
    0.0017377835 = product of:
      0.0052133505 = sum of:
        0.0052133505 = weight(_text_:e in 1032) [ClassicSimilarity], result of:
          0.0052133505 = score(doc=1032,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.07940422 = fieldWeight in 1032, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1032)
      0.33333334 = coord(1/3)
    
    Content
    Darin: "Um als Bibliothek überhaupt eine Rolle in der mobil-digitalen Welt spielen zu können, sollten zuerst die dafür notwendigen Rahmenbedienungen geschaffen werden. Dies betrifft zum einen die Aus- und Weiterbildung aller Bibliotheksmitarbeiter. Brauchen wirklich alle Bibliotheksrnitarbeiter Kenntnisse in RAK? Warum lernen sie nicht, wie man eine App downloaded, wie E-Book-Reader funktionieren oder wie man eine digitale Strategie umsetzt? Zum anderen brauchen endlich alle Bibliotheksmitarbeiter einen wirklich freien Internetzugang. Des Weiteren: Smartphones, EBook-Reader und Tablet-PC's zurn Ausprobieren sollten in jeder Bibliothek vorhanden sein. Kostenloses WLAN für alle in der Bibliothek sollte Standard sein. Für das Ausprobieren mobiler Plattformen und Angebote müssen die zeitlichen Ressourcen geschaffen werden. Workshops und Schulungen können ein guter Start sein. Die digitale Welt verändert sich aber so rasant, dass es notwendig sein wird, sich selber stetig weiterzubilden."
  20. Engel, F.: Expertensuche in semantisch integrierten Datenbeständen (2015) 0.00
    0.0013902269 = product of:
      0.0041706804 = sum of:
        0.0041706804 = weight(_text_:e in 2283) [ClassicSimilarity], result of:
          0.0041706804 = score(doc=2283,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.063523374 = fieldWeight in 2283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
      0.33333334 = coord(1/3)
    
    Abstract
    Wissen ist das intellektuelle Kapital eines Unternehmens und der effektive Zugriff darauf entscheidend für die Anpassungsfähigkeit und Innovationskraft. Eine häufig angewandte Lösung für den erfolgreichen Zugriff auf diese Wissensressourcen ist die Umsetzung der Expertensuche in den Daten der verteilten Informationssysteme des Unternehmens. Aktuelle Expertensuchverfahren berücksichtigen zur Berechnung der Relevanz eines Kandidaten zumeist nur die Information aus Datenquellen (u. a. E-Mails oder Publikationen eines Kandidaten), über die eine Verbindung zwischen dem Thema der Frage und einem Kandidaten hergestellt werden kann. Die aus den Datenquellen gewonnene Information, fließt dann gewichtet in die Relevanzbewertung ein. Analysen aus dem Fachbereich Wissensmanagement zeigen jedoch, dass neben dem Themenbezug auch noch weitere Kriterien Einfluss auf die Auswahl eines Experten in einer Expertensuche haben können (u. a. der Bekanntheitsgrad zwischen dem Suchenden und Kandidat). Um eine optimale Gewichtung der unterschiedlichen Bestandteile und Quellen, aus denen sich die Berechnung der Relevanz speist, zu finden, werden in aktuellen Anwendungen zur Suche nach Dokumenten oder zur Suche im Web verschiedene Verfahren aus dem Umfeld des maschinellen Lernens eingesetzt. Jedoch existieren derzeit nur sehr wenige Arbeiten zur Beantwortung der Frage, wie gut sich diese Verfahren eignen um auch in der Expertensuche verschiedene Bestandteile der Relevanzbestimmung optimal zusammenzuführen. Informationssysteme eines Unternehmens können komplex sein und auf einer verteilten Datenhaltung basieren. Zunehmend finden Technologien aus dem Umfeld des Semantic Web Akzeptanz in Unternehmen, um eine einheitliche Zugriffsschnittstelle auf den verteilten Datenbestand zu gewährleisten. Der Zugriff auf eine derartige Zugriffschnittstelle erfolgt dabei über Abfragesprachen, welche lediglich eine alphanumerische Sortierung der Rückgabe erlauben, jedoch keinen Rückschluss auf die Relevanz der gefundenen Objekte zulassen. Für die Suche nach Experten in einem derartig aufbereiteten Datenbestand bedarf es zusätzlicher Berechnungsverfahren, die einen Rückschluss auf den Relevanzwert eines Kandidaten ermöglichen. In dieser Arbeit soll zum einen ein Beitrag geleistet werden, der die Anwendbarkeit lernender Verfahren zur effektiven Aggregation unterschiedlicher Kriterien in der Suche nach Experten zeigt. Zum anderen soll in dieser Arbeit nach Möglichkeiten geforscht werden, wie die Relevanz eines Kandidaten über Zugriffsschnittstellen berechnet werden kann, die auf Technologien aus dem Umfeld des Semantic Web basieren.

Types

  • a 994
  • el 295
  • m 200
  • x 64
  • s 41
  • r 19
  • n 3
  • b 2
  • p 2
  • i 1
  • l 1
  • More… Less…

Themes

Subjects

Classifications