Search (8 results, page 1 of 1)

  • × author_ss:"Nohr, H."
  1. Nohr, H.: Wissensmanagement (2004) 0.04
    0.04081109 = product of:
      0.12243327 = sum of:
        0.046871334 = weight(_text_:informatik in 2924) [ClassicSimilarity], result of:
          0.046871334 = score(doc=2924,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.2818745 = fieldWeight in 2924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2924)
        0.03501945 = product of:
          0.0700389 = sum of:
            0.0700389 = weight(_text_:vernetzung in 2924) [ClassicSimilarity], result of:
              0.0700389 = score(doc=2924,freq=2.0), product of:
                0.20326729 = queryWeight, product of:
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.032588977 = queryNorm
                0.3445655 = fieldWeight in 2924, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.237302 = idf(docFreq=234, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2924)
          0.5 = coord(1/2)
        0.015690941 = weight(_text_:internet in 2924) [ClassicSimilarity], result of:
          0.015690941 = score(doc=2924,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.16308975 = fieldWeight in 2924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2924)
        0.024851536 = product of:
          0.049703073 = sum of:
            0.049703073 = weight(_text_:allgemein in 2924) [ClassicSimilarity], result of:
              0.049703073 = score(doc=2924,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.2902644 = fieldWeight in 2924, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2924)
          0.5 = coord(1/2)
      0.33333334 = coord(4/12)
    
    Abstract
    Das Management von Wissen wird in Anbetracht veränderter Rahmenbedingungen wie der Entwicklung zu einer Informations- und Wissensgesellschaft, sich rasch vollziehender technologischer Entwicklungen sowie der globalen Vernetzung der Wirtschaftsbeziehungen und dem unmittelbaren Zugang zu weltweit vorhandenen Informationen zu einem zentralen Faktor für Unternehmen. Gerade in den letzten Jahren ist aufgrund rascher Entwicklungen vor allem im Bereich der Informations- und Kommunikationstechnologie (Datenbanken, Wissensmanagement-Software, Internet und Intranet, Portaltechnologie) die Bedeutung der Ressource Wissen für Unternehmen erheblich gestiegen und damit der Bedarf an einem funktionierenden Wissensmanagement. Wir sprechen bereits von wissensintensiven Unternehmen", deren Wertschöpfung vor allem auf den vierten Produktionsfaktor Wissen zurückgeführt wird. Getrieben durch diese Entwicklungen ist den heutigen Ansätzen des Wissensmanagements eines gemeinsam: Es geht vorrangig um das Management des im Unternehmen bereits vorhandenen Wissens, um den Aufbau einer gemeinsamen und geteilten Wissensbasis. Im Mittelpunkt stehen Aspekte der Produktivitäts- und Effizienzsteigerung vorwiegend operativer Prozesse. Das Wissensmanagement ist ein Anliegen vieler Disziplinen. Relevante Beiträge stammen u.a. aus der Betriebswirtschafts- und Managementlehre (u.a. Strategisches Management, Organisationslehre, Human Resource), der Wirtschaftsinformatik, der Informatik, der Organisationspsychologie oder der Philosophie. Die Vielfalt der Sichtweisen sowie die vergleichsweise Neuheit des Themas sind verantwortlich dafür, dass wir keine allgemein akzeptierte Methodik präsentieren.
  2. Nohr, H.: Maschinelle Experten für Information Retrieval (1991) 0.02
    0.015623778 = product of:
      0.18748534 = sum of:
        0.18748534 = weight(_text_:informatik in 3157) [ClassicSimilarity], result of:
          0.18748534 = score(doc=3157,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            1.127498 = fieldWeight in 3157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.15625 = fieldNorm(doc=3157)
      0.083333336 = coord(1/12)
    
    Source
    Informatik. 38(1991) H.6, S.234-235
  3. Nohr, H.: Sachliche Erschließung in Online-Publikumskatalogen : Beschreibung and Analyse ausgewählter deutschsprachiger Systeme (1989) 0.01
    0.0120291 = product of:
      0.1443492 = sum of:
        0.1443492 = weight(_text_:systeme in 5232) [ClassicSimilarity], result of:
          0.1443492 = score(doc=5232,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.82772934 = fieldWeight in 5232, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.109375 = fieldNorm(doc=5232)
      0.083333336 = coord(1/12)
    
  4. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.01
    0.008965897 = product of:
      0.053795382 = sum of:
        0.04124263 = weight(_text_:systeme in 2543) [ClassicSimilarity], result of:
          0.04124263 = score(doc=2543,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2364941 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.012552753 = weight(_text_:internet in 2543) [ClassicSimilarity], result of:
          0.012552753 = score(doc=2543,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.1304718 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.16666667 = coord(2/12)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
  5. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.01
    0.008345557 = product of:
      0.05007334 = sum of:
        0.04124263 = weight(_text_:systeme in 1767) [ClassicSimilarity], result of:
          0.04124263 = score(doc=1767,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2364941 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.008830713 = product of:
          0.017661426 = sum of:
            0.017661426 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.017661426 = score(doc=1767,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
  6. Nohr, H.: Theorie des Information Retrieval II : Automatische Indexierung (2004) 0.00
    0.004296107 = product of:
      0.051553283 = sum of:
        0.051553283 = weight(_text_:systeme in 8) [ClassicSimilarity], result of:
          0.051553283 = score(doc=8,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2956176 = fieldWeight in 8, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
      0.083333336 = coord(1/12)
    
    Abstract
    Ein großer Teil der Informationen - Schätzungen zufolge bis zu 80% - liegt in Organisationen in unstrukturierten Dokumenten vor. In der Vergangenheit wurden Lösungen für das Management strukturierter Informationen entwickelt, die es nun auch zu erreichen gilt für unstrukturierte Informationen. Neben Verfahren des Data Mining für die Datenanalyse treten Versuche, Text Mining (Lit. 06) auf die Textanalyse anzuwenden. Um gezielt Dokumente im Repository suchen zu können, ist eine effektive Inhaltserkennung und -kennzeichnung erforderlich, d.h. eine Zuordnung der Dokumente zu Themengebieten bzw die Speicherung geeigneter Indexterme als Metadaten. Zu diesem Zweck müssen die Dokumenteninhalte repräsentiert, d.h. indexiert oder klassifiziert, werden. Dokumentanalyse dient auch der Steuerung des Informations- und Dokumentenflusses. Ziel ist die Einleitung eines "Workflow nach Posteingang". Eine Dokumentanalyse kann anhand erkannter Merkmale Eingangspost automatisch an den Sachbearbeiter oder die zuständige Organisationseinheit (Rechnungen in die Buchhaltung, Aufträge in den Vertrieb) im Unternehmen leiten. Dokumentanalysen werden auch benötigt, wenn Mitarbeiter über einen persönlichen Informationsfilter relevante Dokumente automatisch zugestellt bekommen sollen. Aufgrund der Systemintegration werden Indexierungslösungen in den Funktionsumfang von DMS- bzw. Workflow-Produkten integriert. Eine Architektur solcher Systeme zeigt Abb. 1. Die Architektur zeigt die Indexierungs- bzw. Klassifizierungsfunktion im Zentrum der Anwendung. Dabei erfüllt sie Aufgaben für die Repräsentation von Dokumenten (Metadaten) und das spätere Retrieval.
  7. Nohr, H.: Big Data im Lichte der EU-Datenschutz-Grundverordnung (2017) 0.00
    0.0020921256 = product of:
      0.025105506 = sum of:
        0.025105506 = weight(_text_:internet in 4076) [ClassicSimilarity], result of:
          0.025105506 = score(doc=4076,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.2609436 = fieldWeight in 4076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=4076)
      0.083333336 = coord(1/12)
    
    Source
    JurPC: Internet-Zeitschrift für Rechtsinformatik und Informationsrecht, [http://www.jurpc.de/jurpc/show?id=20170111]
  8. Kaps, G.; Nohr, H.: Erfolgsmessung im Wissensmanagement mit Balanced Scorecards : Teil 1 (2001) 0.00
    0.0012878124 = product of:
      0.015453748 = sum of:
        0.015453748 = product of:
          0.030907497 = sum of:
            0.030907497 = weight(_text_:22 in 5675) [ClassicSimilarity], result of:
              0.030907497 = score(doc=5675,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.2708308 = fieldWeight in 5675, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5675)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    22. 3.2001 13:20:44