Search (28 results, page 1 of 2)

  • × type_ss:"x"
  • × year_i:[2010 TO 2020}
  1. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.05
    0.046357498 = product of:
      0.07726249 = sum of:
        0.027104476 = weight(_text_:j in 4408) [ClassicSimilarity], result of:
          0.027104476 = score(doc=4408,freq=2.0), product of:
            0.12867662 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.04049623 = queryNorm
            0.21064025 = fieldWeight in 4408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.033697978 = weight(_text_:b in 4408) [ClassicSimilarity], result of:
          0.033697978 = score(doc=4408,freq=2.0), product of:
            0.1434766 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.04049623 = queryNorm
            0.23486741 = fieldWeight in 4408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=4408)
        0.016460039 = product of:
          0.032920077 = sum of:
            0.032920077 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.032920077 = score(doc=4408,freq=2.0), product of:
                0.1418109 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04049623 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Pages
    22 S
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.03
    0.025114512 = product of:
      0.06278628 = sum of:
        0.04019922 = product of:
          0.16079688 = sum of:
            0.16079688 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.16079688 = score(doc=4388,freq=2.0), product of:
                0.3433275 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04049623 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.25 = coord(1/4)
        0.022587063 = weight(_text_:j in 4388) [ClassicSimilarity], result of:
          0.022587063 = score(doc=4388,freq=2.0), product of:
            0.12867662 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.04049623 = queryNorm
            0.17553353 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.4 = coord(2/5)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.02
    0.019295624 = product of:
      0.09647812 = sum of:
        0.09647812 = product of:
          0.38591248 = sum of:
            0.38591248 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.38591248 = score(doc=973,freq=2.0), product of:
                0.3433275 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04049623 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  4. Bertram, J.: Informationen verzweifelt gesucht : Enterprise Search in österreichischen Großunternehmen (2011) 0.02
    0.016794164 = product of:
      0.041985407 = sum of:
        0.022587063 = weight(_text_:j in 2657) [ClassicSimilarity], result of:
          0.022587063 = score(doc=2657,freq=2.0), product of:
            0.12867662 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.04049623 = queryNorm
            0.17553353 = fieldWeight in 2657, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2657)
        0.019398343 = product of:
          0.038796686 = sum of:
            0.038796686 = weight(_text_:22 in 2657) [ClassicSimilarity], result of:
              0.038796686 = score(doc=2657,freq=4.0), product of:
                0.1418109 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04049623 = queryNorm
                0.27358043 = fieldWeight in 2657, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informati-onssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zu-dem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich posi-tiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
    Date
    22. 1.2016 20:40:31
  5. Zudnik, J.: Artifizielle Semantik : Wider das Chinesische Zimmer (2017) 0.01
    0.0149035035 = product of:
      0.03725876 = sum of:
        0.018069651 = weight(_text_:j in 4426) [ClassicSimilarity], result of:
          0.018069651 = score(doc=4426,freq=2.0), product of:
            0.12867662 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.04049623 = queryNorm
            0.14042683 = fieldWeight in 4426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.03125 = fieldNorm(doc=4426)
        0.01918911 = weight(_text_:u in 4426) [ClassicSimilarity], result of:
          0.01918911 = score(doc=4426,freq=2.0), product of:
            0.13260265 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.04049623 = queryNorm
            0.14471136 = fieldWeight in 4426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03125 = fieldNorm(doc=4426)
      0.4 = coord(2/5)
    
    Abstract
    "Talks at Google" hatte kürzlich einen Star zu Gast (Google 2016). Der gefeierte Philosoph referierte in gewohnt charmanter Art sein berühmtes Gedankenexperiment, welches er vor 35 Jahren ersonnen hatte. Aber es war keine reine Geschichtslektion, sondern er bestand darauf, daß die Implikationen nach wie vor Gültigkeit besaßen. Die Rede ist natürlich von John Searle und dem Chinesischen Zimmer. Searle eroberte damit ab 1980 die Welt der Philosophie des Geistes, indem er bewies, daß man Computer besprechen kann, ohne etwas von ihnen zu verstehen. In seinen Worten, man könne ohnehin die zugrunde liegenden Konzepte dieser damned things in 5 Minuten erfassen. Dagegen verblassten die scheuen Einwände des AI-Starapologeten Ray Kurzweil der im Publikum saß, die jüngste Akquisition in Googles Talentpool. Searle wirkte wie die reine Verkörperung seiner Thesen, daß Berechnung, Logik und harte Fakten angesichts der vollen Entfaltung polyvalenter Sprachspiele eines menschlichen Bewußtseins im sozialen Raum der Kultur keine Macht über uns besitzen. Doch obwohl große Uneinigkeit bezüglich der Gültigkeit des chinesischen Zimmers besteht, und die logische Struktur des Arguments schon vor Jahrzehnten widerlegt worden ist, u. a. von Copeland (1993), wird erstaunlicherweise noch immer damit gehandelt. Es hat sich von einem speziellen Werkzeug zur Widerlegung der Starken AI These, wonach künstliche Intelligenz mit einer symbolverarbeitenden Rechenmaschine geschaffen werden kann, zu einem Argument für all die Fälle entwickelt, in welchen sich Philosophen des Geistes mit unbequemen Fragen bezüglich der Berechenbarkeit des menschlichen Geistes auseinandersetzen hätten können. Es ist also mit den Jahrzehnten zu einer Immunisierungs- und Konservierungsstrategie für all jene geworden, die sich Zeit erkaufen wollten, sich mit der wirklichen Komplexität auseinander zu setzen. Denn die Definition von Sinn ist eben plastisch, vor allem wenn die Pointe der Searlschen Geschichte noch immer eine hohe Suggestionskraft besitzt, da ihre Konklusion, man könne nicht von einer computationalen Syntax zu einer Semantik kommen, noch immer unzureichend widerlegt ist.
  6. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.01
    0.008039844 = product of:
      0.04019922 = sum of:
        0.04019922 = product of:
          0.16079688 = sum of:
            0.16079688 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.16079688 = score(doc=4997,freq=2.0), product of:
                0.3433275 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04049623 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  7. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.01
    0.008039844 = product of:
      0.04019922 = sum of:
        0.04019922 = product of:
          0.16079688 = sum of:
            0.16079688 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.16079688 = score(doc=855,freq=2.0), product of:
                0.3433275 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04049623 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  8. Holze, J.: Digitales Wissen : bildungsrelevante Relationen zwischen Strukturen digitaler Medien und Konzepten von Wissen (2017) 0.01
    0.0072278604 = product of:
      0.036139302 = sum of:
        0.036139302 = weight(_text_:j in 3984) [ClassicSimilarity], result of:
          0.036139302 = score(doc=3984,freq=2.0), product of:
            0.12867662 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.04049623 = queryNorm
            0.28085366 = fieldWeight in 3984, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0625 = fieldNorm(doc=3984)
      0.2 = coord(1/5)
    
  9. Mattmann, B.: ¬Die Möglichkeiten von RDA bei der Erschliessung historischer Sondermaterialien : Analyse der Beschreibungs- und Erschließungsmöglicjkeiten von Resource Description and Access für die historischen Sondermaterialien Brief und Fotografie (2014) 0.01
    0.0067395954 = product of:
      0.033697978 = sum of:
        0.033697978 = weight(_text_:b in 1651) [ClassicSimilarity], result of:
          0.033697978 = score(doc=1651,freq=2.0), product of:
            0.1434766 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.04049623 = queryNorm
            0.23486741 = fieldWeight in 1651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
      0.2 = coord(1/5)
    
  10. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.01
    0.006431875 = product of:
      0.032159373 = sum of:
        0.032159373 = product of:
          0.1286375 = sum of:
            0.1286375 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.1286375 = score(doc=5820,freq=2.0), product of:
                0.3433275 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04049623 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  11. Zuckerstätter, B.: Klassifikation und Beschlagwortung : zur Verwendung von Schlagwörtern in Aufstellungsklassifikationen (2012) 0.01
    0.00561633 = product of:
      0.02808165 = sum of:
        0.02808165 = weight(_text_:b in 594) [ClassicSimilarity], result of:
          0.02808165 = score(doc=594,freq=2.0), product of:
            0.1434766 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.04049623 = queryNorm
            0.19572285 = fieldWeight in 594, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=594)
      0.2 = coord(1/5)
    
  12. Walther, T.: Erschließung historischer Bestände mit RDA (2015) 0.01
    0.00561633 = product of:
      0.02808165 = sum of:
        0.02808165 = weight(_text_:b in 2437) [ClassicSimilarity], result of:
          0.02808165 = score(doc=2437,freq=2.0), product of:
            0.1434766 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.04049623 = queryNorm
            0.19572285 = fieldWeight in 2437, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2437)
      0.2 = coord(1/5)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. "cataloger's judgement" haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet? Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung "Formalerschließung historischer Bestände" an der Hochschule Hannover getroffen.
  13. Engel, F.: Expertensuche in semantisch integrierten Datenbeständen (2015) 0.01
    0.0054275 = product of:
      0.0271375 = sum of:
        0.0271375 = weight(_text_:u in 2283) [ClassicSimilarity], result of:
          0.0271375 = score(doc=2283,freq=4.0), product of:
            0.13260265 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.04049623 = queryNorm
            0.20465277 = fieldWeight in 2283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
      0.2 = coord(1/5)
    
    Abstract
    Wissen ist das intellektuelle Kapital eines Unternehmens und der effektive Zugriff darauf entscheidend für die Anpassungsfähigkeit und Innovationskraft. Eine häufig angewandte Lösung für den erfolgreichen Zugriff auf diese Wissensressourcen ist die Umsetzung der Expertensuche in den Daten der verteilten Informationssysteme des Unternehmens. Aktuelle Expertensuchverfahren berücksichtigen zur Berechnung der Relevanz eines Kandidaten zumeist nur die Information aus Datenquellen (u. a. E-Mails oder Publikationen eines Kandidaten), über die eine Verbindung zwischen dem Thema der Frage und einem Kandidaten hergestellt werden kann. Die aus den Datenquellen gewonnene Information, fließt dann gewichtet in die Relevanzbewertung ein. Analysen aus dem Fachbereich Wissensmanagement zeigen jedoch, dass neben dem Themenbezug auch noch weitere Kriterien Einfluss auf die Auswahl eines Experten in einer Expertensuche haben können (u. a. der Bekanntheitsgrad zwischen dem Suchenden und Kandidat). Um eine optimale Gewichtung der unterschiedlichen Bestandteile und Quellen, aus denen sich die Berechnung der Relevanz speist, zu finden, werden in aktuellen Anwendungen zur Suche nach Dokumenten oder zur Suche im Web verschiedene Verfahren aus dem Umfeld des maschinellen Lernens eingesetzt. Jedoch existieren derzeit nur sehr wenige Arbeiten zur Beantwortung der Frage, wie gut sich diese Verfahren eignen um auch in der Expertensuche verschiedene Bestandteile der Relevanzbestimmung optimal zusammenzuführen. Informationssysteme eines Unternehmens können komplex sein und auf einer verteilten Datenhaltung basieren. Zunehmend finden Technologien aus dem Umfeld des Semantic Web Akzeptanz in Unternehmen, um eine einheitliche Zugriffsschnittstelle auf den verteilten Datenbestand zu gewährleisten. Der Zugriff auf eine derartige Zugriffschnittstelle erfolgt dabei über Abfragesprachen, welche lediglich eine alphanumerische Sortierung der Rückgabe erlauben, jedoch keinen Rückschluss auf die Relevanz der gefundenen Objekte zulassen. Für die Suche nach Experten in einem derartig aufbereiteten Datenbestand bedarf es zusätzlicher Berechnungsverfahren, die einen Rückschluss auf den Relevanzwert eines Kandidaten ermöglichen. In dieser Arbeit soll zum einen ein Beitrag geleistet werden, der die Anwendbarkeit lernender Verfahren zur effektiven Aggregation unterschiedlicher Kriterien in der Suche nach Experten zeigt. Zum anderen soll in dieser Arbeit nach Möglichkeiten geforscht werden, wie die Relevanz eines Kandidaten über Zugriffsschnittstellen berechnet werden kann, die auf Technologien aus dem Umfeld des Semantic Web basieren.
  14. Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018) 0.01
    0.0054208953 = product of:
      0.027104476 = sum of:
        0.027104476 = weight(_text_:j in 5744) [ClassicSimilarity], result of:
          0.027104476 = score(doc=5744,freq=2.0), product of:
            0.12867662 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.04049623 = queryNorm
            0.21064025 = fieldWeight in 5744, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
      0.2 = coord(1/5)
    
  15. Weiner, U.: Vor uns die Dokumentenflut oder Automatische Indexierung als notwendige und sinnvolle Ergänzung zur intellektuellen Sacherschließung (2012) 0.00
    0.0047972775 = product of:
      0.023986388 = sum of:
        0.023986388 = weight(_text_:u in 598) [ClassicSimilarity], result of:
          0.023986388 = score(doc=598,freq=2.0), product of:
            0.13260265 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.04049623 = queryNorm
            0.1808892 = fieldWeight in 598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
      0.2 = coord(1/5)
    
  16. Renker, L.: Exploration von Textkorpora : Topic Models als Grundlage der Interaktion (2015) 0.00
    0.0047972775 = product of:
      0.023986388 = sum of:
        0.023986388 = weight(_text_:u in 2380) [ClassicSimilarity], result of:
          0.023986388 = score(doc=2380,freq=2.0), product of:
            0.13260265 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.04049623 = queryNorm
            0.1808892 = fieldWeight in 2380, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
      0.2 = coord(1/5)
    
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  17. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.00
    0.0045174127 = product of:
      0.022587063 = sum of:
        0.022587063 = weight(_text_:j in 3194) [ClassicSimilarity], result of:
          0.022587063 = score(doc=3194,freq=2.0), product of:
            0.12867662 = queryWeight, product of:
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.04049623 = queryNorm
            0.17553353 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1774964 = idf(docFreq=5010, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.2 = coord(1/5)
    
  18. Csákány, B.: Vom Zettelkatalog zum Volltext : über die Entwicklung und Funktion des Kataloges am Beispiel der Österreichischen Nationalbibliothek (2012) 0.00
    0.004493064 = product of:
      0.022465318 = sum of:
        0.022465318 = weight(_text_:b in 600) [ClassicSimilarity], result of:
          0.022465318 = score(doc=600,freq=2.0), product of:
            0.1434766 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.04049623 = queryNorm
            0.15657827 = fieldWeight in 600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.03125 = fieldNorm(doc=600)
      0.2 = coord(1/5)
    
  19. Bender, B.: Digitale Mündigkeit? : Definition und Dimensionen: eine theoretische Fundierung zwischen Medienbildung und Medienkompetenz (2016) 0.00
    0.004493064 = product of:
      0.022465318 = sum of:
        0.022465318 = weight(_text_:b in 4089) [ClassicSimilarity], result of:
          0.022465318 = score(doc=4089,freq=2.0), product of:
            0.1434766 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.04049623 = queryNorm
            0.15657827 = fieldWeight in 4089, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
      0.2 = coord(1/5)
    
  20. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.00
    0.0043893442 = product of:
      0.02194672 = sum of:
        0.02194672 = product of:
          0.04389344 = sum of:
            0.04389344 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.04389344 = score(doc=401,freq=2.0), product of:
                0.1418109 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04049623 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    11. 9.2012 19:43:22