Search (36 results, page 1 of 2)

  • × type_ss:"r"
  • × year_i:[2000 TO 2010}
  1. Oberhauser, O.; Seidler, W.: Reklassifizierung grösserer fachspezifischer Bibliotheksbestände : Durchführbarkeitsstudie für die Fachbibliothek für Germanistik an der Universität Wien (2000) 0.01
    0.011488492 = product of:
      0.21828134 = sum of:
        0.21828134 = weight(_text_:germanistik in 4631) [ClassicSimilarity], result of:
          0.21828134 = score(doc=4631,freq=2.0), product of:
            0.20076887 = queryWeight, product of:
              8.200379 = idf(docFreq=32, maxDocs=44218)
              0.024482876 = queryNorm
            1.087227 = fieldWeight in 4631, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.200379 = idf(docFreq=32, maxDocs=44218)
              0.09375 = fieldNorm(doc=4631)
      0.05263158 = coord(1/19)
    
  2. Bredemeier, W.; Stock, M.; Stock, W.G.: ¬Die Branche elektronischer Geschäftsinformationen in Deutschland 2000/2001 (2001) 0.01
    0.0053865323 = product of:
      0.051172055 = sum of:
        0.030162308 = weight(_text_:deutsche in 621) [ClassicSimilarity], result of:
          0.030162308 = score(doc=621,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.26087868 = fieldWeight in 621, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0390625 = fieldNorm(doc=621)
        0.021009749 = weight(_text_:und in 621) [ClassicSimilarity], result of:
          0.021009749 = score(doc=621,freq=20.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3871834 = fieldWeight in 621, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=621)
      0.10526316 = coord(2/19)
    
    Content
    Der deutsche Markt für Elektronische Informationsdienste im Jahre 2000 - Ergebnisse einer Umsatzerhebung - Von Willi Bredemeier: - Abgesicherte Methodologie unter Berücksichtigung der Spezifika des EIS-Marktes und der aktuellen Entwicklung - teilweise Vergleichbarkeit der Daten ab 1989 - Weitgehende quantitative Markttransparenz, da der Leser die Aggregationen der Markt- und Teilmarktdaten aus einzelwirtschaftlichen Daten voll nachvollziehen kann - 93 zum Teil ausführliche Tabellen vorwiegend zu einzelnen Informationsanbietern unter besonderer Berücksichtigung der Geschäftsjahre 2000 und 1999, unterteilt in die Bereiche Gesamtmarkt für Elektronische Informationsdienste, Datev, Realtime-Finanzinformationen, Nachrichtenagenturen, Kreditinformationen, Firmen- und Produktinformationen, weitere Wirtschaftsinformationen, Rechtsinformationen, Wissenschaftlich-technisch-medizinische Informationen - Intellectual Property, Konsumentendienste, Nachbarmärkte - Analyse aktueller Markttrends. Qualität professioneller Firmeninformationen im World Wide Web - Von Mechtild Stock und Wolfgang G. Stock: - Weiterführung der Qualitätsdiskussion und Entwicklung eines Systems von Qualitätskriterien für Informationsangebote, bezogen auf Firmeninformationen im Internet - "Qualitätspanel" für die Bereiche Bonitätsinformationen, Firmenkurzdossiers, Produktinformationen und Adressinformationen mit den Anbietern Bürgel, Creditreform, Dun & Bradstreet Deutschland, ABC online, ALLECO, Hoppenstedt Firmendatenbank, Who is Who in Multimedia, Kompass Deutschland, Sachon Industriedaten, Wer liefert was?, AZ Bertelsmann, Schober.com - Hochdifferenzierte Tests, die den Kunden Hilfen bei der Auswahl zwischen Angeboten und den Anbietern Hinweise auf Maßnahmen zu qualitativen Verbesserungen geben - Detaillierte Informationen über eingesetzte Systeme der Branchen- und Produktklassifikationen - Rankings der Firmeninformationsanbieter insgesamt sowie nach Datenbasen, Retrievalsystemen und Websites, Detailinformationen zu allen Qualitätsdimensionen
  3. Krause, J.; Mayr, P.: Allgemeiner Bibliothekszugang und Varianten der Suchtypologie : Konsequenzen für die Modellbildung in vascoda (2007) 0.00
    0.004136023 = product of:
      0.03929222 = sum of:
        0.013154183 = weight(_text_:und in 5998) [ClassicSimilarity], result of:
          0.013154183 = score(doc=5998,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.24241515 = fieldWeight in 5998, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5998)
        0.026138037 = product of:
          0.052276075 = sum of:
            0.052276075 = weight(_text_:allgemein in 5998) [ClassicSimilarity], result of:
              0.052276075 = score(doc=5998,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.40637016 = fieldWeight in 5998, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5998)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Der Arbeitsbericht konzentriert sich zunächst auf Integrationsmöglichkeiten des Dreiländerkatalogs (DLK), der prototypisch für fachübergreifende Bibliothekskataloge (Allgemeinzugang) in vascoda steht. Der Bericht geht auf interne Designvarianten ein, welche Grundüberlegungen zum sogenannten Allgemeinzugang bebildern. Abschnitt 2 befasst sich mit Vorschlägen zur Erweiterung der Suchtypologie von vascoda. Eine Änderung der fachgebietsorientierten Grundkonzeption von vascoda lässt sich weder aus der Literatursichtung noch aus der vascoda-internen Diskussion anlässlich der Contentintegration von DLK und der Einführung der FAST-Suchmaschinentechnologie für vascoda-Teilmengen ableiten.
    Theme
    Katalogfragen allgemein
  4. Gajewski, T.; Klement, T.: Generierung eines multidimensionalen Katalogsystems mit Datawarehouse-Architektur (2000) 0.00
    0.0027513723 = product of:
      0.052276075 = sum of:
        0.052276075 = product of:
          0.10455215 = sum of:
            0.10455215 = weight(_text_:allgemein in 6009) [ClassicSimilarity], result of:
              0.10455215 = score(doc=6009,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.8127403 = fieldWeight in 6009, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6009)
          0.5 = coord(1/2)
      0.05263158 = coord(1/19)
    
    Theme
    Katalogfragen allgemein
  5. Mayr, P.: Informationsangebote für das Wissenschaftsportal vascoda : eine Bestandsaufnahme (2006) 0.00
    0.0015129346 = product of:
      0.028745757 = sum of:
        0.028745757 = weight(_text_:und in 154) [ClassicSimilarity], result of:
          0.028745757 = score(doc=154,freq=26.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.5297484 = fieldWeight in 154, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=154)
      0.05263158 = coord(1/19)
    
    Abstract
    Der Arbeitsbericht ist eine vorläufige Bestandsaufnahme der Informationsangebote der Virtuellen Fachbibliotheken und Informationsverbünde, die in das interdisziplinäre Wissenschaftsportal vascoda integriert werden sollen. Die strukturierte Beschreibung der heterogenen Informationsangebote, insbesondere Internetquellen, Fachdatenbanken/Bibliographien, SSG Online-Contents, OPACs, Volltextserver und Digitalisate konzentriert sich auf ausgewählte Aspekte, die eine Grundlage für weitere Arbeiten und Analysen im Projekt "Modellbildung und Heterogenitätsbehandlung" sind. Die Bestandsaufnahme liegt in der Version 2 vor. Neben der knappen Charakterisierung der Informationstypen und Fachinformationsanbieter wird vor allem der IST-Stand der strukturellen und semantischen Heterogenität der analysierten Bestände beschrieben. Zu diesem Zweck wurden die einzelnen Informationsangebote über deren Eingangswebseiten untersucht und zusätzlich bestehende Daten aus vorherigen Erhebungen einbezogen. Die Bestandsaufnahme der Informationsangebote und Kollektionen zeigt eine große Vielfalt an unterschiedlichen formalen und inhaltlichen Erschließungsformen. Die beobachtbare strukturelle und semantische Heterogenität zwischen den einzelnen Beständen hat weit reichende Folgen für die kontrollierte und begründete Integration und Modellierung der Dokumente. Der Bericht ist verfügbar unter http://www.gesis.orq/Publikationen/Berichte/IZ Arbeitsberichte/pdf/ab 37.pdf und kann über den IZ-Bestellservice als Broschüre angefordert werden.
  6. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.00
    0.0012588378 = product of:
      0.023917917 = sum of:
        0.023917917 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.023917917 = score(doc=4322,freq=18.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.05263158 = coord(1/19)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  7. Gödert, W.; Oßwald, A.; Rösch, H.; Sleegers, P.: Evit@: Evaluation elektronischer Informationsmittel (2000) 0.00
    0.0012113171 = product of:
      0.023015026 = sum of:
        0.023015026 = weight(_text_:und in 1881) [ClassicSimilarity], result of:
          0.023015026 = score(doc=1881,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.42413816 = fieldWeight in 1881, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1881)
      0.05263158 = coord(1/19)
    
    Abstract
    Evit@ stellt ein Bewertungsinstrument bereit, mit dessen Hilfe qualitative Aussagen über elektronische Informationsmittel möglich werden. Eine Stärke des Verfahrens liegt auf der vergleichenden Produktanalyse und auf einem weitgehend entindividualisierten Ansatz
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.23
  8. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.00
    0.0011868436 = product of:
      0.022550028 = sum of:
        0.022550028 = weight(_text_:und in 1837) [ClassicSimilarity], result of:
          0.022550028 = score(doc=1837,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41556883 = fieldWeight in 1837, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1837)
      0.05263158 = coord(1/19)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Imprint
    Köln : Fachhochschule, Fakultät für Informations- und Kommunikationswissenschaften, Institut für Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd. 54
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  9. Stein, R.; Gottschewski, J.; Heuchert, R.; Ermert, A.; Hagedorn-Saupe, M.; Hansen, H.-J.; Saro, C.; Scheffel, R.; Schulte-Dornberg, G.: ¬Das CIDOC Conceptual Reference Model : Eine Hilfe für den Datenaustausch? (2005) 0.00
    0.0011868436 = product of:
      0.022550028 = sum of:
        0.022550028 = weight(_text_:und in 3741) [ClassicSimilarity], result of:
          0.022550028 = score(doc=3741,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41556883 = fieldWeight in 3741, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3741)
      0.05263158 = coord(1/19)
    
    Abstract
    Mit dieser Publikation veröffentlicht das Institut für Museumskunde die bisherigen Arbeitsergebnisse der Arbeitsgruppe "Datenaustausch" in der Fachgruppe Dokumentation des Deutschen Museumsbunds (DMB). Kolleginnen und Kollegen verschiedener Interessenschwerpunkte aus Museen und Informatik-Einrichtungen haben seit dem Jahre 2000 die Entwicklung des CIDOC-CRM (das "Conceptual Reference Model" des Dokumentationskomitees von ICOM, dem Internationalen Museumsrat) zu einem Arbeitsinstrument begleitet, das derzeit auf dem Wege ist, als Norm ISO 21 127 Anerkennung zu finden. Die Arbeitsgruppe hat sich intensiv damit beschäftigt, zunächst das komplexe Modell zu verstehen, und sie hat diskutiert, inwieweit es eine Hilfestellung für die Arbeit von Museen miteinander und für einen Datenaustausch zwischen ihnen bietet. Die Ergebnisse der Überlegungen werden hier vorgestellt in der Hoffnung, dass dadurch viele Kolleginnen und Kollegen mit dem Modell bekannt werden, ihnen das Verständnis des CRM erleichtert wird und das Modell auch in Deutschland für die Konzeption von Informationssystemen und die Vermittlung zwischen unterschiedlichen Dokumentationen genutzt werden kann.
    Series
    Mitteilungen und Berichte aus dem Institut für Museumskunde; Nr.31
  10. Reiner, U.: VZG-Projekt Colibri : Bewertung von automatisch DDC-klassifizierten Titeldatensätzen der Deutschen Nationalbibliothek (DNB) (2009) 0.00
    0.0011597478 = product of:
      0.02203521 = sum of:
        0.02203521 = weight(_text_:und in 2675) [ClassicSimilarity], result of:
          0.02203521 = score(doc=2675,freq=22.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.40608138 = fieldWeight in 2675, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2675)
      0.05263158 = coord(1/19)
    
    Abstract
    Das VZG-Projekt Colibri/DDC beschäftigt sich seit 2003 mit automatischen Verfahren zur Dewey-Dezimalklassifikation (Dewey Decimal Classification, kurz DDC). Ziel des Projektes ist eine einheitliche DDC-Erschließung von bibliografischen Titeldatensätzen und eine Unterstützung der DDC-Expert(inn)en und DDC-Laien, z. B. bei der Analyse und Synthese von DDC-Notationen und deren Qualitätskontrolle und der DDC-basierten Suche. Der vorliegende Bericht konzentriert sich auf die erste größere automatische DDC-Klassifizierung und erste automatische und intellektuelle Bewertung mit der Klassifizierungskomponente vc_dcl1. Grundlage hierfür waren die von der Deutschen Nationabibliothek (DNB) im November 2007 zur Verfügung gestellten 25.653 Titeldatensätze (12 Wochen-/Monatslieferungen) der Deutschen Nationalbibliografie der Reihen A, B und H. Nach Erläuterung der automatischen DDC-Klassifizierung und automatischen Bewertung in Kapitel 2 wird in Kapitel 3 auf den DNB-Bericht "Colibri_Auswertung_DDC_Endbericht_Sommer_2008" eingegangen. Es werden Sachverhalte geklärt und Fragen gestellt, deren Antworten die Weichen für den Verlauf der weiteren Klassifizierungstests stellen werden. Über das Kapitel 3 hinaus führende weitergehende Betrachtungen und Gedanken zur Fortführung der automatischen DDC-Klassifizierung werden in Kapitel 4 angestellt. Der Bericht dient dem vertieften Verständnis für die automatischen Verfahren.
  11. Forschen für die Internet-Gesellschaft : Trends, Technologien, Anwendungen, Trends und Handlungsempfehlungen 2008 des Feldafinger Kreises (2008) 0.00
    0.0011189668 = product of:
      0.02126037 = sum of:
        0.02126037 = weight(_text_:und in 2337) [ClassicSimilarity], result of:
          0.02126037 = score(doc=2337,freq=32.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.39180204 = fieldWeight in 2337, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2337)
      0.05263158 = coord(1/19)
    
    Abstract
    Ausgangslage: Im April 2000 haben führende Repräsentanten der deutschen Wissenschaftsorganisationen und der Bundesverband der Deutschen Industrie (BDI) beschlossen, gemeinsame Strategien zur Stärkung des Standorts Deutschland im globalen Innovationswettbewerb zu entwickeln. Weil entscheidende Impulse für Innovationen von der Zusammenarbeit zwischen öffentlicher Forschung und privaten Unternehmen ausgehen, muss dieser Prozess durch mehr Autonomie und Wettbewerb von Hochschulen und Forschungsinstituten und durch intensive Kommunikation und Kooperation weiter verbessert werden. Ziel sollte sein, die Partner aus unterschiedlichen wissenschaftlichen Disziplinen und aus allen Branchen der Wirtschaft noch besser ins Gespräch zu bringen, um Defizite bei der Umsetzung von Forschungsergebnissen in innovative Produkte, Dienste und Verfahren abzubauen. Um den Dialog zwischen Wissenschaft und Gesellschaft zu intensivieren, haben die Spitzenorganisationen von Wissenschaft und Industrie gemeinsame Symposien auf den Gebieten "Energie", "Lebenswissenschaften" und "Internet-Gesellschaft" beschlossen. Von diesen Symposien sollen Impulse für die Ermittlung des künftigen Forschungsbedarfs und entsprechende Handlungsempfehlungen für diese Gebiete höchster volkswirtschaftlicher Relevanz ausgehen. Stellvertretend für die Wissenschaftsorganisationen hat die Fraunhofer-Gesellschaft gemeinsam mit dem BDI die Ausrichtung des Symposiums zur Internet-Gesellschaft organisiert und finanziell unterstützt.
    Content
    Die Trendaussagen des Feldafinger Kreises von 2008 1. Das Future Internet wird die globale, zuverlässige Plattform für alle Dienste. 2. Peer-to-Peer Networking ermöglicht den Informationsaustausch ohne zentrale Instanz. 3. Software wird zum Bestandteil fast aller Produkte. 4. Sicherheit wird zu einer Grundvoraussetzung für die Akzeptanz von Diensten. 5. Semantische Technologien verwandeln Informationen zu Wissen. 6. Konsequentes Wissensmanagement ist die Basis des Erfolgs von Unternehmen. 7. Intelligente Software-Agenten übernehmen Routineaufgaben. 8. Service Grids bilden das Internet der Dienste. 9. IKT sorgt für Energieeffi zienz und Versorgungssicherheit. 10. Selbstorganisation reduziert die Komplexität und erhöht die Zuverlässigkeit. 11. e-Processes erhöhen die Wettbewerbsfähigkeit durch internetbasierte Geschäftsprozesse. 12. Das Internet der Dinge sorgt für den Informationsaustausch zwischen Gegenständen. 13. Neue Fahrerassistenzsysteme ermöglichen pro-aktive Sicherheit. 14. Vernetzte, digitale Umgebungen unterstützen den Menschen in allen Lebenslagen. 15. Intuitive Bedienparadigmen werden die Nutzung des Internets für alle erleichtern.
  12. John, M.: Semantische Technologien in der betrieblichen Anwendung : Ergebnisse einer Anwenderstudie (2006) 0.00
    0.0011189668 = product of:
      0.02126037 = sum of:
        0.02126037 = weight(_text_:und in 3898) [ClassicSimilarity], result of:
          0.02126037 = score(doc=3898,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.39180204 = fieldWeight in 3898, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3898)
      0.05263158 = coord(1/19)
    
    Abstract
    Die vorliegende Studie untersucht den Einsatz und den Wirkungsgrad von semantischen Technologien in den betrieblichen Informationssystemen. Einleitend wird kurz in die Semantic Web Thematik und die Hauptanwendungsgebiete semantischer Technologien sowie die damit verbundenen Informationsprozesse eingeführt, um dann anschließend anhand von empirischen Daten den Aufwand, den Nutzen und die Effekte von semantischen Anwendungen beschreibbar zu machen. Dabei versucht die Studie auch die Lessons learned der Unternehmen zu vermitteln, die bereits semantische Technologien einsetzen.
    Imprint
    Berlin : Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik (FIRST)
  13. Kaizik, A.; Gödert, W.; Oßwald, A.: Evaluation von Subject Gateways des Internet (EJECT) : Projektbericht (2001) 0.00
    0.0011101905 = product of:
      0.02109362 = sum of:
        0.02109362 = weight(_text_:und in 1476) [ClassicSimilarity], result of:
          0.02109362 = score(doc=1476,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.38872904 = fieldWeight in 1476, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
      0.05263158 = coord(1/19)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu errei-chen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele:· Durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; Einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen;· Diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden in dieser Studie ausführlich vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist.
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.30
  14. Nohr, H.: Wissen und Wissensprozesse visualisieren (2000) 0.00
    0.0010946626 = product of:
      0.02079859 = sum of:
        0.02079859 = weight(_text_:und in 2974) [ClassicSimilarity], result of:
          0.02079859 = score(doc=2974,freq=40.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.38329202 = fieldWeight in 2974, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2974)
      0.05263158 = coord(1/19)
    
    Abstract
    Wissen wird im modernen Wirtschaftsgeschehen zunehmend als eine wettbewerbsentscheidende Ressource angesehen. Es ist zu einem der wichtigsten Werte für Unternehmen geworden, um im globalen Wettbewerb bestehen zu können. Die Bemühungen der Unternehmen um Generierung und Akquisition von Wissen werden ständig intensiviert. Alle Anstrengungen, Wissen aus externen Quellen in die Unternehmung zu integrieren bzw. selbst neues Wissen zu erzeugen, bleiben allein jedoch wenig sinnvoll. "It's an ongoing quest within an organization (...) to help discover the location, ownership, value and use of knowledge artifacts, to lern the roles and expertise of people, to identify constraints to the flow of knowledge, and to highlight opportunities to leverage existing knowledge." (Grey 1999)
    Der wirkungsvolle und erfolgreiche Umgang mit Wissen wird erst durch aufeinander abgestimmte Management-Bausteine erreicht, wie sie heute im Rahmen von Konzeptionen eines Wissensmanagements formuliert werden. Bausteine eines solchen Wissensmanagements sind auf strategischer wie auf operativer Ebene angesiedelt. Auf der strategischen Ebene geht es vor allem um die Formulierung von Wissenszielen der Organisation, basierend auf den als kritisch erkannten Erfolgsfaktoren. Auf der operativen Ebene benennen verschiedene Konzeptionen eines Wissensmanagement heute unterschiedlich differenzierte Bausteine der Realisierung. Generalisiert lassen sich in nahezu allen Konzeptionen jedoch drei Gruppen von Bausteinen identifizieren, die je nach Ansatz weiter differenziert werden können: - Wissensgenerierung und Wissenserwerb - Wissensidentifikation und Wissenstransparenz - Wissensverteilung und Wissensnutzung Wissenstransparenz bzw. die Identifikation von Wissen werden in den gängigen Konzeptionen also als ein zentrales Element der operativen Aufgaben im Wissensmanagement erkannt (vgl. Probst/Romhardt 1996; Probst et al. 1998) Bullinger et al. 1998; Davenport/Prusak 1998). Im Gegensatz zum Datenmanagement und auch zum Informationsmanagement, spielen in diesen Konzepten vor allem auch die individuellen Wissensressourcen der Mitarbeiterinnen und Mitarbeiter eine entscheidende Rolle. Es ist eine Schlüsselerkenntnis modernen Managements, dass wesentliche Werte der Unternehmung 2in den Köpfen der Mitarbeiter" zu finden sind. Dabei ist Wissen als eine Ressource erkannt, die von Menschen generiert wird, an diese Menschen gebunden ist, auf Erfahrungen und Einstellungen beruht und sich nur in sehr eingeschränktem Masse externalisieren und übertragen lässt (tacit knowledge). In diesem Sinne geht es uns in der Hauptsache um Handlungswissen, um das "gewusst wie". Wie können mühsam erworbene Erfahrungen dokumentiert und transparent gemacht werden, wie kann dafür gesorgt werden, dass sie dem Unternehmen insgesamt und jederzeit zugute kommen können? Wie können erfolgreich durchgefiihrte Aktivitäten und Prozesse als Muster dienen, wenn analoge Aufgaben an anderen Orten und zu anderen Zeiten zu erfüllen sind? Wie gelangen wir vom individuellen Wissen einzelner Mitarbeiter zur Fähigkeit von Organisationen oder Teams, komplexe Probleme und Aufgaben zu lösen? Wenn generiertes, durch Erfahrung gewonnenes oder eingekauftes Wissen dem Unternehmen insgesamt, d.h. den Mitarbeitern die dieses Wissen jeweils benötigen, zugute kommen soll, muss für eine Transparenz über das unternehmensweit vorhandene Wissen gesorgt werden, ebenso über Wissen im Umfeld eines Unternehmens (bspw. bei Partner, Kunden, Behörden usw.). Dabei ist beim Wissensmanagement zunehmend die Tendenz einer räumlich dezentralen - oft sogar globalen - sowie zeitlich flüchtigen und virtuellen Organisation der Unternehmungen zu berücksichtigen (Faisst 1996). Unternehmen suchen nach best practices zur Organisation von Team- und Gruppenprozessen. Unternehmerische Prozesse und unternehmensrelevantes Wissen besitzen heute eine hohe Komplexität, die eine Erfassung, Speicherung und Verteilung des benötigten Wissens selbst ausgeschlossen erscheinen lässt bzw. nur unter Einsatz enormer Ressourcen möglich macht. Die angesprochenen Schwierigkeiten der Externalisierung des jeweils individuellen Erfahrungswissens von Experten stehen diesem Unterfangen ohnehin unüberbrücklich im Wege.
  15. Stock, W.G.: Publikation und Zitat : Die problematische Basis empirischer Wissenschaftsforschung (2001) 0.00
    0.0010490314 = product of:
      0.019931596 = sum of:
        0.019931596 = weight(_text_:und in 5787) [ClassicSimilarity], result of:
          0.019931596 = score(doc=5787,freq=18.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3673144 = fieldWeight in 5787, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
      0.05263158 = coord(1/19)
    
    Abstract
    Die empirische Wissenschaftsforschung arbeitet bei den Indikatoren wissenschaftlicher Leistung und wissenschaftlicher Wirkung mit Publikations- und Zitationsraten. Die vorliegende Arbeit befaßt sich mit dabei auftretenden methodischen Problemen. Was ist überhaupt eine Publikation? Was heißt Zitation? Zentral ist auch die Zählbasis, d.h. die Einheitenbildung: Was ist 1 Publikation? und: Was ist 1 Zitation? Bei Printpublikationen gibt es eine Reihe von beachtenswerten Faktoren (u.a. Mehrautorenwerke, Gewichtungsfaktoren wie den Impact Factor, Dokumenttypen). Bei elektronischen Publikationen im Internet mit ihrem dynamischen Charakter ist die Einheitenbildung noch weitaus problematischer. Zitationen, verstanden als zitierte Publikationen, werfen alle methodischen Probleme der Publikationseinheiten auf, hinzu kommen weitere, spezifische Probleme. Lösungsmöglichkeiten im syntaktischen Bereich (Relativierung auf Textseiten oder Zeichen) ändern am grundlegenden Problem nur wenig, Lösungsversuche im semantischen Bereich (etwa im Rahmen der semantischen Informationstheorie) sind im Rahmen der Publikations- und Zitationsanalysen nicht durchführbar und verweisen sowohl auf themenanalytische Methoden als auch auf die Wissenschaftstheorie. Mit diesem Working Paper wollen wir vor allem auf offene Probleme hinweisen; "endgültige" Lösungen wird der Leser nicht finden, wohl aber Lösungsvorschläge, die meist durchaus noch diskussionswürdig sind. In der Informationswissenschaft wie in der Wissenschaftsforschung sind wir bisher viel zu sicher davon ausgegangen, daß wir wissen, was Publikationen und Zitationen sind
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.29
  16. Carey, K.; Stringer, R.: ¬The power of nine : a preliminary investigation into navigation strategies for the new library with special reference to disabled people (2000) 0.00
    0.0010475026 = product of:
      0.01990255 = sum of:
        0.01990255 = product of:
          0.0398051 = sum of:
            0.0398051 = weight(_text_:22 in 234) [ClassicSimilarity], result of:
              0.0398051 = score(doc=234,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.46428138 = fieldWeight in 234, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=234)
          0.5 = coord(1/2)
      0.05263158 = coord(1/19)
    
    Pages
    22 S
  17. Krause, J.: Standardisierung von der Heterogenität her denken : zum Entwicklungsstand bilateraler Transferkomponenten für digitale Fachbibliotheken (2003) 0.00
    0.0010278366 = product of:
      0.019528896 = sum of:
        0.019528896 = weight(_text_:und in 1863) [ClassicSimilarity], result of:
          0.019528896 = score(doc=1863,freq=12.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.35989314 = fieldWeight in 1863, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
      0.05263158 = coord(1/19)
    
    Abstract
    Lösungen für die Probleme beim Aufbau fachwissenschaftlicher Informationsangebote im Web führen weit über die bisher gewohnten Denkweisen von Informationszentren und Bibliothekaren hinaus. Die diskutierte Leitlinie "Standardisierung von der Heterogenität her zu denken" charakterisiert den Wandel am deutlichsten. Er ist nicht nur technologisch, sondern inhaltlich-konzeptuell. Die traditionellen Methoden der Standardisierung reichen nicht mehr aus, die auch im Web-Kontext angestrebte Interoperabilität und Datenkonsistenz aufrecht zu erhalten. Die Forschungs- und Entwicklungsabteilung des IZ Sozialwissenschaften hat in den letzten Jahren die theoretischen Grundlagen dieser Sichtweise auf die Standardisierungsprobleme und ihre praktische Umsetzung in verschiedenen Projekten zusammen mit unterschiedlichen Partnern bearbeitet. Der im Folgenden dargestellte Stand spiegelt das Ergebnis der Entwicklung der letzten sechs Jahre wider und fasst die realisierten Teilkomponenten solch einer Modellsicht zusammen. Das bisher Erreichte bietet schon heute erste Ansätze, die das konzeptuelle Problem unterschiedlichster Inhaltserschließungen im Kontext der heutigen digitalen Fachbibliotheken, Informationsverbünde und Fachportale zumindest partiell lösen.
  18. Puzicha, J.: Informationen finden! : Intelligente Suchmaschinentechnologie & automatische Kategorisierung (2007) 0.00
    0.0010278366 = product of:
      0.019528896 = sum of:
        0.019528896 = weight(_text_:und in 2817) [ClassicSimilarity], result of:
          0.019528896 = score(doc=2817,freq=12.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.35989314 = fieldWeight in 2817, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
      0.05263158 = coord(1/19)
    
    Abstract
    Wie in diesem Text erläutert wurde, ist die Effektivität von Such- und Klassifizierungssystemen durch folgendes bestimmt: 1) den Arbeitsauftrag, 2) die Genauigkeit des Systems, 3) den zu erreichenden Automatisierungsgrad, 4) die Einfachheit der Integration in bereits vorhandene Systeme. Diese Kriterien gehen davon aus, dass jedes System, unabhängig von der Technologie, in der Lage ist, Grundvoraussetzungen des Produkts in Bezug auf Funktionalität, Skalierbarkeit und Input-Methode zu erfüllen. Diese Produkteigenschaften sind in der Recommind Produktliteratur genauer erläutert. Von diesen Fähigkeiten ausgehend sollte die vorhergehende Diskussion jedoch einige klare Trends aufgezeigt haben. Es ist nicht überraschend, dass jüngere Entwicklungen im Maschine Learning und anderen Bereichen der Informatik einen theoretischen Ausgangspunkt für die Entwicklung von Suchmaschinen- und Klassifizierungstechnologie haben. Besonders jüngste Fortschritte bei den statistischen Methoden (PLSA) und anderen mathematischen Werkzeugen (SVMs) haben eine Ergebnisqualität auf Durchbruchsniveau erreicht. Dazu kommt noch die Flexibilität in der Anwendung durch Selbsttraining und Kategorienerkennen von PLSA-Systemen, wie auch eine neue Generation von vorher unerreichten Produktivitätsverbesserungen.
  19. Lubetzky, S.: Principles of cataloging (2001) 0.00
    9.82633E-4 = product of:
      0.018670026 = sum of:
        0.018670026 = product of:
          0.037340052 = sum of:
            0.037340052 = weight(_text_:allgemein in 2627) [ClassicSimilarity], result of:
              0.037340052 = score(doc=2627,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.2902644 = fieldWeight in 2627, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2627)
          0.5 = coord(1/2)
      0.05263158 = coord(1/19)
    
    Theme
    Katalogfragen allgemein
  20. IVS und IK im Innovationszyklus : Studie des Informationsrings Kreditwirtschaft (2000) 0.00
    9.79096E-4 = product of:
      0.018602824 = sum of:
        0.018602824 = weight(_text_:und in 5829) [ClassicSimilarity], result of:
          0.018602824 = score(doc=5829,freq=2.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 5829, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5829)
      0.05263158 = coord(1/19)
    

Languages

  • d 31
  • e 4

Types