Search (26 results, page 1 of 2)

  • × author_ss:"Nohr, H."
  1. Nohr, H.: ¬Die Methode Eppelsheimer im Online-Retrieval : eine Studie über Anwendungsmöglichkeiten (1991) 0.12
    0.12165199 = product of:
      0.18247798 = sum of:
        0.07207332 = weight(_text_:im in 5174) [ClassicSimilarity], result of:
          0.07207332 = score(doc=5174,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.49970993 = fieldWeight in 5174, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.125 = fieldNorm(doc=5174)
        0.11040466 = product of:
          0.16560699 = sum of:
            0.0830764 = weight(_text_:online in 5174) [ClassicSimilarity], result of:
              0.0830764 = score(doc=5174,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5364998 = fieldWeight in 5174, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.125 = fieldNorm(doc=5174)
            0.08253059 = weight(_text_:retrieval in 5174) [ClassicSimilarity], result of:
              0.08253059 = score(doc=5174,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5347345 = fieldWeight in 5174, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.125 = fieldNorm(doc=5174)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
  2. Puhlmann, H.; Nohr, H.: Erschließung und Abfrage formaler Kriterien im Online-Kontext (1991) 0.07
    0.07415728 = product of:
      0.11123592 = sum of:
        0.07207332 = weight(_text_:im in 2040) [ClassicSimilarity], result of:
          0.07207332 = score(doc=2040,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.49970993 = fieldWeight in 2040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.125 = fieldNorm(doc=2040)
        0.0391626 = product of:
          0.11748779 = sum of:
            0.11748779 = weight(_text_:online in 2040) [ClassicSimilarity], result of:
              0.11748779 = score(doc=2040,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.75872535 = fieldWeight in 2040, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.125 = fieldNorm(doc=2040)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Object
    RAK-Online
  3. Nohr, H.: Präkombination klassifikatorischer und verbaler Sacherschließungsdaten und ihr Potential im Information Retrieval (1992) 0.05
    0.05393219 = product of:
      0.080898285 = sum of:
        0.063704416 = weight(_text_:im in 4097) [ClassicSimilarity], result of:
          0.063704416 = score(doc=4097,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.44168535 = fieldWeight in 4097, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=4097)
        0.017193872 = product of:
          0.051581617 = sum of:
            0.051581617 = weight(_text_:retrieval in 4097) [ClassicSimilarity], result of:
              0.051581617 = score(doc=4097,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.33420905 = fieldWeight in 4097, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4097)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Source
    Die Systematik im OPAC: über das Instrumentarium zum Ordnen und Wiederfinden. Vorträge aus den bibliothekarischen Arbeitsgruppen der 16. Jahrestagung der Gesellschaft für Klassifikation, Dortmund 1992. Hrsg.: H.-J. Hermes u. H. Havekost
  4. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.05
    0.053240966 = product of:
      0.07986145 = sum of:
        0.04767202 = weight(_text_:im in 1767) [ClassicSimilarity], result of:
          0.04767202 = score(doc=1767,freq=14.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.33052707 = fieldWeight in 1767, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.03218943 = product of:
          0.048284143 = sum of:
            0.020632647 = weight(_text_:retrieval in 1767) [ClassicSimilarity], result of:
              0.020632647 = score(doc=1767,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.13368362 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
            0.027651496 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.027651496 = score(doc=1767,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  5. Kaps, G.; Nohr, H.: Erfolgsmessung im Wissensmanagement mit Balanced Scorecards : Teil 1 (2001) 0.05
    0.047163468 = product of:
      0.0707452 = sum of:
        0.054615162 = weight(_text_:im in 5675) [ClassicSimilarity], result of:
          0.054615162 = score(doc=5675,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.37866634 = fieldWeight in 5675, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5675)
        0.01613004 = product of:
          0.048390117 = sum of:
            0.048390117 = weight(_text_:22 in 5675) [ClassicSimilarity], result of:
              0.048390117 = score(doc=5675,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.2708308 = fieldWeight in 5675, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5675)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Erfolgsmessung im Wissensmanagement unter Anwendung der Balanced Scorecard. In Teil 1 werden verschiedene Methoden der Erfolgsmessung im Wissensmanagement verglichen, insbesondere wird gezeigt, wie sich die Balanced Scorecard einsetzen und gestalten lässt. In diesem Zusammenhang wird die Darstellung durch die klassischen Perspektiven erläutert und dann ein Ausblick auf Wissensperspektiven gegeben. In Teil 2 wird der Erarbeitungsprozess einer Scorecard erläutert und es werden Messgrößen entwickelt. Außerdem wird der Einfluss der Scorecard auf das organisationale Lernverhalten geschildert. Am Schluss wird Software vorgestellt, die das Konzept der Balanced Scorecard unterstützt
    Date
    22. 3.2001 13:20:44
  6. Nohr, H.: Bücher und Zeitschriften im Netz : Angebot und Nutzen des DBI-Host (1994) 0.04
    0.040012505 = product of:
      0.060018755 = sum of:
        0.03603666 = weight(_text_:im in 6592) [ClassicSimilarity], result of:
          0.03603666 = score(doc=6592,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 6592, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=6592)
        0.023982096 = product of:
          0.071946286 = sum of:
            0.071946286 = weight(_text_:online in 6592) [ClassicSimilarity], result of:
              0.071946286 = score(doc=6592,freq=6.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.4646225 = fieldWeight in 6592, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6592)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Literaturversorgung in Deutschland krankt seit langem weniger am Nachweis der erschienenen Bücher bzw. Zeitschriften- oder Zeitungsaufsätze. Die verschiedenen Einrichtungen der Fachinformation haben ein inzwischen thematisch nahezu lückeloses Netz von Datenbanken aufgebaut, seien sie online oder auf optischen Speichermedien verfügbar. Beschwerlich kann hingegen nach wie vor der Weg zum tatsächlich benötigten Wissen sein, denn dies befindet sich oft schriftlich fixiert in Bibliotheken. Diese bieten heute noch selten elektronische Bestandsnachweise oder gar die Möglichkeit der Online-Bestellung (online-ordering) an. Helfen kann in vielen Fällen das DBI in Berlin
  7. Nohr, H.: Theorie des Information Retrieval II : Automatische Indexierung (2004) 0.03
    0.03411249 = product of:
      0.051168732 = sum of:
        0.03901083 = weight(_text_:im in 8) [ClassicSimilarity], result of:
          0.03901083 = score(doc=8,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.27047595 = fieldWeight in 8, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.012157904 = product of:
          0.03647371 = sum of:
            0.03647371 = weight(_text_:retrieval in 8) [ClassicSimilarity], result of:
              0.03647371 = score(doc=8,freq=4.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23632148 = fieldWeight in 8, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=8)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Ein großer Teil der Informationen - Schätzungen zufolge bis zu 80% - liegt in Organisationen in unstrukturierten Dokumenten vor. In der Vergangenheit wurden Lösungen für das Management strukturierter Informationen entwickelt, die es nun auch zu erreichen gilt für unstrukturierte Informationen. Neben Verfahren des Data Mining für die Datenanalyse treten Versuche, Text Mining (Lit. 06) auf die Textanalyse anzuwenden. Um gezielt Dokumente im Repository suchen zu können, ist eine effektive Inhaltserkennung und -kennzeichnung erforderlich, d.h. eine Zuordnung der Dokumente zu Themengebieten bzw die Speicherung geeigneter Indexterme als Metadaten. Zu diesem Zweck müssen die Dokumenteninhalte repräsentiert, d.h. indexiert oder klassifiziert, werden. Dokumentanalyse dient auch der Steuerung des Informations- und Dokumentenflusses. Ziel ist die Einleitung eines "Workflow nach Posteingang". Eine Dokumentanalyse kann anhand erkannter Merkmale Eingangspost automatisch an den Sachbearbeiter oder die zuständige Organisationseinheit (Rechnungen in die Buchhaltung, Aufträge in den Vertrieb) im Unternehmen leiten. Dokumentanalysen werden auch benötigt, wenn Mitarbeiter über einen persönlichen Informationsfilter relevante Dokumente automatisch zugestellt bekommen sollen. Aufgrund der Systemintegration werden Indexierungslösungen in den Funktionsumfang von DMS- bzw. Workflow-Produkten integriert. Eine Architektur solcher Systeme zeigt Abb. 1. Die Architektur zeigt die Indexierungs- bzw. Klassifizierungsfunktion im Zentrum der Anwendung. Dabei erfüllt sie Aufgaben für die Repräsentation von Dokumenten (Metadaten) und das spätere Retrieval.
  8. Nohr, H.: Ausbildung im Fach Inhaltserschließung : Einige Gedanken zu künftigen Notwendigkeiten (1990) 0.02
    0.02402444 = product of:
      0.07207332 = sum of:
        0.07207332 = weight(_text_:im in 432) [ClassicSimilarity], result of:
          0.07207332 = score(doc=432,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.49970993 = fieldWeight in 432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.125 = fieldNorm(doc=432)
      0.33333334 = coord(1/3)
    
  9. Nohr, H.: BISMAS : Ein PC-gestütztes bibliothekarisches Datenbanksystem im Test (1991) 0.02
    0.02402444 = product of:
      0.07207332 = sum of:
        0.07207332 = weight(_text_:im in 457) [ClassicSimilarity], result of:
          0.07207332 = score(doc=457,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.49970993 = fieldWeight in 457, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.125 = fieldNorm(doc=457)
      0.33333334 = coord(1/3)
    
  10. Nohr, H.: Klassifikation als Basis einer Sacherschließungskomponente im OPAC : Anforderungen an Elemente und Struktur (1991) 0.02
    0.02402444 = product of:
      0.07207332 = sum of:
        0.07207332 = weight(_text_:im in 3833) [ClassicSimilarity], result of:
          0.07207332 = score(doc=3833,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.49970993 = fieldWeight in 3833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.125 = fieldNorm(doc=3833)
      0.33333334 = coord(1/3)
    
  11. Nohr, H.; Puhlmann, H.: Ausbildung im Fach Inhaltserschließung vor verändertem technischen Hintergrund (1992) 0.02
    0.01801833 = product of:
      0.054054987 = sum of:
        0.054054987 = weight(_text_:im in 1364) [ClassicSimilarity], result of:
          0.054054987 = score(doc=1364,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.37478244 = fieldWeight in 1364, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.09375 = fieldNorm(doc=1364)
      0.33333334 = coord(1/3)
    
  12. Nohr, H.: Inhaltsanalyse (1999) 0.02
    0.016987845 = product of:
      0.050963532 = sum of:
        0.050963532 = weight(_text_:im in 3430) [ClassicSimilarity], result of:
          0.050963532 = score(doc=3430,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.35334828 = fieldWeight in 3430, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=3430)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Inhaltsanalyse ist der elementare Teilprozeß der Indexierung von Dokumenten. Trotz dieser zentralen Stellung im Rahmen einer inhaltlichen Dokumenterschließung wird der Vorgang der Inhaltsanalyse in theorie und Praxis noch zu wenig beachtet. Der Grund dieser Vernachlässigung liegt im vermeintlich subjektiven Charakter des Verstehensprozesses. Zur Überwindung dieses Problems wird zunächst der genaue Gegenstand der Inhaltsanalyse bestimmt. Daraus abgeleitet lassen sich methodisch weiterführende Ansätze und Verfahren einer inhaltlichen Analyse gewinnen. Abschließend werden einige weitere Aufgaben der Inhaltsanalyse, wir z.B. eine qualitative Bewertung, behandelt
  13. Nohr, H.: Big Data im Lichte der EU-Datenschutz-Grundverordnung (2017) 0.02
    0.016987845 = product of:
      0.050963532 = sum of:
        0.050963532 = weight(_text_:im in 4076) [ClassicSimilarity], result of:
          0.050963532 = score(doc=4076,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.35334828 = fieldWeight in 4076, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=4076)
      0.33333334 = coord(1/3)
    
    Abstract
    Der vorliegende Beitrag beschäftigt sich mit den Rahmenbedingungen für analytische Anwendungen wie Big Data, die durch das neue europäische Datenschutzrecht entstehen, insbesondere durch die EU-Datenschutz-Grundverordnung. Er stellt wesentliche Neuerungen vor und untersucht die spezifischen datenschutzrechtlichen Regelungen im Hinblick auf den Einsatz von Big Data sowie Voraussetzungen, die durch die Verordnung abverlangt werden.
  14. Kaps, G.; Nohr, H.: Erfolgsmessung im Wissensmanagement mit Balanced Scorecards : Teil 2 (2001) 0.02
    0.015015274 = product of:
      0.045045823 = sum of:
        0.045045823 = weight(_text_:im in 5788) [ClassicSimilarity], result of:
          0.045045823 = score(doc=5788,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.3123187 = fieldWeight in 5788, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=5788)
      0.33333334 = coord(1/3)
    
  15. Nohr, H.: Elektronisch vermittelte Wissenskommunikation und Medienwahl (2002) 0.02
    0.015015274 = product of:
      0.045045823 = sum of:
        0.045045823 = weight(_text_:im in 548) [ClassicSimilarity], result of:
          0.045045823 = score(doc=548,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.3123187 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=548)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Beitrag beschäftigt sich mit der computervermittelten Kommunikation von Wissen als Voraussetzung eines erfolgreichen Wissensmanagements. Dabei stehen Kommunikationsprozesse und die Wahl der Medien im Mittelpunkt. Als theoretischer Hintergrund werden Theorien vorgestellt, die diese Auswahl begründen. Der Artikel stellt vor allem die Theorie der Mediensynchronizität vor.
  16. Nohr, H.: Wissen und Wissensprozesse visualisieren (2000) 0.01
    0.01390434 = product of:
      0.041713018 = sum of:
        0.041713018 = weight(_text_:im in 2974) [ClassicSimilarity], result of:
          0.041713018 = score(doc=2974,freq=14.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.28921118 = fieldWeight in 2974, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2974)
      0.33333334 = coord(1/3)
    
    Abstract
    Wissen wird im modernen Wirtschaftsgeschehen zunehmend als eine wettbewerbsentscheidende Ressource angesehen. Es ist zu einem der wichtigsten Werte für Unternehmen geworden, um im globalen Wettbewerb bestehen zu können. Die Bemühungen der Unternehmen um Generierung und Akquisition von Wissen werden ständig intensiviert. Alle Anstrengungen, Wissen aus externen Quellen in die Unternehmung zu integrieren bzw. selbst neues Wissen zu erzeugen, bleiben allein jedoch wenig sinnvoll. "It's an ongoing quest within an organization (...) to help discover the location, ownership, value and use of knowledge artifacts, to lern the roles and expertise of people, to identify constraints to the flow of knowledge, and to highlight opportunities to leverage existing knowledge." (Grey 1999)
    Der wirkungsvolle und erfolgreiche Umgang mit Wissen wird erst durch aufeinander abgestimmte Management-Bausteine erreicht, wie sie heute im Rahmen von Konzeptionen eines Wissensmanagements formuliert werden. Bausteine eines solchen Wissensmanagements sind auf strategischer wie auf operativer Ebene angesiedelt. Auf der strategischen Ebene geht es vor allem um die Formulierung von Wissenszielen der Organisation, basierend auf den als kritisch erkannten Erfolgsfaktoren. Auf der operativen Ebene benennen verschiedene Konzeptionen eines Wissensmanagement heute unterschiedlich differenzierte Bausteine der Realisierung. Generalisiert lassen sich in nahezu allen Konzeptionen jedoch drei Gruppen von Bausteinen identifizieren, die je nach Ansatz weiter differenziert werden können: - Wissensgenerierung und Wissenserwerb - Wissensidentifikation und Wissenstransparenz - Wissensverteilung und Wissensnutzung Wissenstransparenz bzw. die Identifikation von Wissen werden in den gängigen Konzeptionen also als ein zentrales Element der operativen Aufgaben im Wissensmanagement erkannt (vgl. Probst/Romhardt 1996; Probst et al. 1998) Bullinger et al. 1998; Davenport/Prusak 1998). Im Gegensatz zum Datenmanagement und auch zum Informationsmanagement, spielen in diesen Konzepten vor allem auch die individuellen Wissensressourcen der Mitarbeiterinnen und Mitarbeiter eine entscheidende Rolle. Es ist eine Schlüsselerkenntnis modernen Managements, dass wesentliche Werte der Unternehmung 2in den Köpfen der Mitarbeiter" zu finden sind. Dabei ist Wissen als eine Ressource erkannt, die von Menschen generiert wird, an diese Menschen gebunden ist, auf Erfahrungen und Einstellungen beruht und sich nur in sehr eingeschränktem Masse externalisieren und übertragen lässt (tacit knowledge). In diesem Sinne geht es uns in der Hauptsache um Handlungswissen, um das "gewusst wie". Wie können mühsam erworbene Erfahrungen dokumentiert und transparent gemacht werden, wie kann dafür gesorgt werden, dass sie dem Unternehmen insgesamt und jederzeit zugute kommen können? Wie können erfolgreich durchgefiihrte Aktivitäten und Prozesse als Muster dienen, wenn analoge Aufgaben an anderen Orten und zu anderen Zeiten zu erfüllen sind? Wie gelangen wir vom individuellen Wissen einzelner Mitarbeiter zur Fähigkeit von Organisationen oder Teams, komplexe Probleme und Aufgaben zu lösen? Wenn generiertes, durch Erfahrung gewonnenes oder eingekauftes Wissen dem Unternehmen insgesamt, d.h. den Mitarbeitern die dieses Wissen jeweils benötigen, zugute kommen soll, muss für eine Transparenz über das unternehmensweit vorhandene Wissen gesorgt werden, ebenso über Wissen im Umfeld eines Unternehmens (bspw. bei Partner, Kunden, Behörden usw.). Dabei ist beim Wissensmanagement zunehmend die Tendenz einer räumlich dezentralen - oft sogar globalen - sowie zeitlich flüchtigen und virtuellen Organisation der Unternehmungen zu berücksichtigen (Faisst 1996). Unternehmen suchen nach best practices zur Organisation von Team- und Gruppenprozessen. Unternehmerische Prozesse und unternehmensrelevantes Wissen besitzen heute eine hohe Komplexität, die eine Erfassung, Speicherung und Verteilung des benötigten Wissens selbst ausgeschlossen erscheinen lässt bzw. nur unter Einsatz enormer Ressourcen möglich macht. Die angesprochenen Schwierigkeiten der Externalisierung des jeweils individuellen Erfahrungswissens von Experten stehen diesem Unterfangen ohnehin unüberbrücklich im Wege.
  17. Nohr, H.: Wissensmanagement (2004) 0.01
    0.01300361 = product of:
      0.03901083 = sum of:
        0.03901083 = weight(_text_:im in 2924) [ClassicSimilarity], result of:
          0.03901083 = score(doc=2924,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.27047595 = fieldWeight in 2924, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2924)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Management von Wissen wird in Anbetracht veränderter Rahmenbedingungen wie der Entwicklung zu einer Informations- und Wissensgesellschaft, sich rasch vollziehender technologischer Entwicklungen sowie der globalen Vernetzung der Wirtschaftsbeziehungen und dem unmittelbaren Zugang zu weltweit vorhandenen Informationen zu einem zentralen Faktor für Unternehmen. Gerade in den letzten Jahren ist aufgrund rascher Entwicklungen vor allem im Bereich der Informations- und Kommunikationstechnologie (Datenbanken, Wissensmanagement-Software, Internet und Intranet, Portaltechnologie) die Bedeutung der Ressource Wissen für Unternehmen erheblich gestiegen und damit der Bedarf an einem funktionierenden Wissensmanagement. Wir sprechen bereits von wissensintensiven Unternehmen", deren Wertschöpfung vor allem auf den vierten Produktionsfaktor Wissen zurückgeführt wird. Getrieben durch diese Entwicklungen ist den heutigen Ansätzen des Wissensmanagements eines gemeinsam: Es geht vorrangig um das Management des im Unternehmen bereits vorhandenen Wissens, um den Aufbau einer gemeinsamen und geteilten Wissensbasis. Im Mittelpunkt stehen Aspekte der Produktivitäts- und Effizienzsteigerung vorwiegend operativer Prozesse. Das Wissensmanagement ist ein Anliegen vieler Disziplinen. Relevante Beiträge stammen u.a. aus der Betriebswirtschafts- und Managementlehre (u.a. Strategisches Management, Organisationslehre, Human Resource), der Wirtschaftsinformatik, der Informatik, der Organisationspsychologie oder der Philosophie. Die Vielfalt der Sichtweisen sowie die vergleichsweise Neuheit des Themas sind verantwortlich dafür, dass wir keine allgemein akzeptierte Methodik präsentieren.
  18. Nohr, H.: Klassifikation online : Eine Antwort auf Marion Beaujean (1991) 0.01
    0.01153839 = product of:
      0.03461517 = sum of:
        0.03461517 = product of:
          0.10384551 = sum of:
            0.10384551 = weight(_text_:online in 2123) [ClassicSimilarity], result of:
              0.10384551 = score(doc=2123,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.67062473 = fieldWeight in 2123, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.15625 = fieldNorm(doc=2123)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  19. Nohr, H.: Maschinelle Experten für Information Retrieval (1991) 0.01
    0.011462582 = product of:
      0.034387745 = sum of:
        0.034387745 = product of:
          0.103163235 = sum of:
            0.103163235 = weight(_text_:retrieval in 3157) [ClassicSimilarity], result of:
              0.103163235 = score(doc=3157,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.6684181 = fieldWeight in 3157, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.15625 = fieldNorm(doc=3157)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  20. Nohr, H.: Sachliche Erschließung in deutschsprachigen Online-Publikumskatalogen (1989) 0.01
    0.009230712 = product of:
      0.027692135 = sum of:
        0.027692135 = product of:
          0.0830764 = sum of:
            0.0830764 = weight(_text_:online in 106) [ClassicSimilarity], result of:
              0.0830764 = score(doc=106,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.5364998 = fieldWeight in 106, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.125 = fieldNorm(doc=106)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)