Search (98 results, page 1 of 5)

  • × language_ss:"d"
  • × type_ss:"a"
  • × type_ss:"el"
  1. Bauckhage, C.: Marginalizing over the PageRank damping factor (2014) 0.02
    0.020995347 = product of:
      0.09447906 = sum of:
        0.08389453 = weight(_text_:applications in 928) [ClassicSimilarity], result of:
          0.08389453 = score(doc=928,freq=2.0), product of:
            0.17247584 = queryWeight, product of:
              4.4025097 = idf(docFreq=1471, maxDocs=44218)
              0.03917671 = queryNorm
            0.4864132 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4025097 = idf(docFreq=1471, maxDocs=44218)
              0.078125 = fieldNorm(doc=928)
        0.010584532 = weight(_text_:of in 928) [ClassicSimilarity], result of:
          0.010584532 = score(doc=928,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.17277241 = fieldWeight in 928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.078125 = fieldNorm(doc=928)
      0.22222222 = coord(2/9)
    
    Abstract
    In this note, we show how to marginalize over the damping parameter of the PageRank equation so as to obtain a parameter-free version known as TotalRank. Our discussion is meant as a reference and intended to provide a guided tour towards an interesting result that has applications in information retrieval and classification.
  2. Schirrmeister, N.-P.; Keil, S.: Aufbau einer Infrastruktur für Information Retrieval-Evaluationen (2012) 0.01
    0.0147717865 = product of:
      0.06647304 = sum of:
        0.011975031 = weight(_text_:of in 3097) [ClassicSimilarity], result of:
          0.011975031 = score(doc=3097,freq=4.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.19546966 = fieldWeight in 3097, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
        0.054498006 = weight(_text_:software in 3097) [ClassicSimilarity], result of:
          0.054498006 = score(doc=3097,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.35064998 = fieldWeight in 3097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=3097)
      0.22222222 = coord(2/9)
    
    Abstract
    Das Projekt "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE) bietet eine Softwareinfrastruktur zur Unterstützung von Information Retrieval-Evaluationen (IR-Evaluationen). Die Infrastruktur basiert auf einem Tool-Kit, das bei GESIS im Rahmen des DFG-Projekts IRM entwickelt wurde. Ziel ist es, ein System zu bieten, das zur Forschung und Lehre am Fachbereich Media für IR-Evaluationen genutzt werden kann. This paper describes some aspects of a project called "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE). Its goal is to build a software-infrastructure which supports the evaluation of information retrieval algorithms.
  3. Mühlbauer, P.: Upload in Computer klappt . (2018) 0.01
    0.014725204 = product of:
      0.066263415 = sum of:
        0.047685754 = weight(_text_:software in 4113) [ClassicSimilarity], result of:
          0.047685754 = score(doc=4113,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.30681872 = fieldWeight in 4113, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4113)
        0.018577661 = product of:
          0.037155323 = sum of:
            0.037155323 = weight(_text_:22 in 4113) [ClassicSimilarity], result of:
              0.037155323 = score(doc=4113,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.2708308 = fieldWeight in 4113, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4113)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Den drei an der Technischen Universität in Wien forschenden Informatikern Mathias Lechner, Radu Grosu und Ramin Hasani ist es gelungen, das Nervensystem des Fadenwurm Caenorhabditis elegans (C. elegans) als Software in einen Computer zu übertragen und nachzuweisen, dass der "hochgeladene" virtuelle Wurm auf Reize genau so reagiert wie ein echter Nematodenwurm auf echte Reize in der Realität. Dafür ließen sie ihn eine Aufgabe bewältigen, die Hasani zufolge dem Balancieren eines Stabes ähnelt.
    Date
    12. 2.2018 15:22:19
  4. Keßler, K.; Krüger, A.T.; Ghammad, Y.; Wulle, S.; Balke, W.-T.; Stump, K.: PubPharm - Der Fachinformationsdienst Pharmazie (2016) 0.01
    0.013992786 = product of:
      0.06296754 = sum of:
        0.02890629 = weight(_text_:systems in 3133) [ClassicSimilarity], result of:
          0.02890629 = score(doc=3133,freq=4.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.24009174 = fieldWeight in 3133, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3133)
        0.034061253 = weight(_text_:software in 3133) [ClassicSimilarity], result of:
          0.034061253 = score(doc=3133,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.21915624 = fieldWeight in 3133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3133)
      0.22222222 = coord(2/9)
    
    Abstract
    Der Fachinformationsdienst (FID) Pharmazie verfolgt das Ziel, die Informationsinfrastruktur und die Literaturversorgung für die pharmazeutische Hochschulforschung nachhaltig zu verbessern. Das Projekt wird seit dem 1. Januar 2015 von der Deutschen Forschungsgemeinschaft gefördert. Eine Besonderheit stellt die Kooperation zwischen der Universitätsbibliothek Braunschweig und dem Institut für Informationssysteme (IfIS) der TU Braunschweig dar, wodurch aktuelle Forschung auf dem Gebiet der Informatik in die Implementierung innovativer FID-Dienste mündet. Im Zentrum des Projektes steht der nutzerzentrierte Aufbau einer erweiterbaren und personalisierbaren Informationsinfrastruktur. Das vom FID entwickelte Discovery System "PubPharm" zur pharmaziespezifischen Recherche basiert, als Weiterentwicklung des beluga-Systems der SUB Hamburg, auf der Open Source Software VuFind. Als Datengrundlage enthält es u.a. die Medline Daten, erweitert durch Normdaten, die unter anderem die Suche nach chemischen Strukturen erlauben. Gleichzeitig werden vom Institut für Informationssysteme innovative Suchmöglichkeiten basierend auf Narrativer Intelligenz untersucht und perspektivisch in das Retrieval des Discovery Systems eingebunden. Im Rahmen von sog. FID-Lizenzen bietet der FID Pharmazie Wissenschaftlern/innen Volltextzugriff auf pharmazeutische Fachzeitschriften. Bestandteil der Lizenzen ist das Recht zur Langzeitarchivierung. Bei deren technischer Umsetzung kooperiert der FID mit der TIB Hannover. Der FID Pharmazie koppelt seine Aktivitäten eng an die pharmazeutische Fachcommunity: unter anderem begleitet ein Fachbeirat die Entwicklungen. Im Rahmen der Öffentlichkeitsarbeit werden Nutzer/innen umfassend über die Angebote informiert, u.a. in Webcasts und im PubPharm Blog.
  5. Eble, M.; Kirch, S.: Wissenstransfer und Medienerschließung : Werkzeuge für die Integration von Multimedia-Inhalten in das Wissensmanagement (2013) 0.01
    0.011078839 = product of:
      0.049854778 = sum of:
        0.0089812735 = weight(_text_:of in 4912) [ClassicSimilarity], result of:
          0.0089812735 = score(doc=4912,freq=4.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.14660224 = fieldWeight in 4912, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=4912)
        0.040873505 = weight(_text_:software in 4912) [ClassicSimilarity], result of:
          0.040873505 = score(doc=4912,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.2629875 = fieldWeight in 4912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=4912)
      0.22222222 = coord(2/9)
    
    Abstract
    Für Speicherung und Transfer von Wissen setzen Unternehmen neben Textdaten verstärkt auch audio-visuelle Daten ein. Beispiele dafür sind Schulungsvideos für Produktionsanlagen oder Podcasts zu Forschungsthemen. Damit stellt sich die Frage, welche Werkzeuge sich für die Integration von Multimedia-Inhalten in Systeme des Wissensmanagements eignen und wie solche Inhalte in Enterprise-Suchmaschinen eingebunden werden können. Der Beitrag skizziert diesen Ausgangspunkt und gibt eine Übersicht über Anbieter und Werkzeuge zur Erschließung von Bilddaten (z. B. aus Digitalisierungs-Projekten) sowie von audio-visuellen Daten. Er konzentriert sich auf Werkzeuge, die als Software as a Service genutzt werden können und listet Kriterien zur technischen Evaluation solcher Lösungen auf. Der Beitrag basiert auf Beratungs- und Entwicklungsprojekten zu automatischer Medienerschließung, Multimedia Indexing und Enterprise Search.
    Source
    Open journal of knowledge management. 2013, Ausgabe VII = http://www.community-of-knowledge.de/beitrag/wissenstransfer-und-medienerschliessung-werkzeuge-fuer-die-integration-von-multimedia-inhalten-in-d/
  6. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.01
    0.0095043825 = product of:
      0.042769723 = sum of:
        0.004233813 = weight(_text_:of in 935) [ClassicSimilarity], result of:
          0.004233813 = score(doc=935,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.06910896 = fieldWeight in 935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.03853591 = weight(_text_:software in 935) [ClassicSimilarity], result of:
          0.03853591 = score(doc=935,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.24794699 = fieldWeight in 935, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
      0.22222222 = coord(2/9)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
  7. Rapp, F.; Kombrink, S.; Kushnarenko, V.; Fratz, M.; Scharon, D.: SARA-Dienst : Software langfristig verfügbar machen (2018) 0.01
    0.009270299 = product of:
      0.08343269 = sum of:
        0.08343269 = weight(_text_:software in 4356) [ClassicSimilarity], result of:
          0.08343269 = score(doc=4356,freq=12.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.53682095 = fieldWeight in 4356, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4356)
      0.11111111 = coord(1/9)
    
    Abstract
    Software spielt in vielen Disziplinen eine wichtige Rolle im Forschungsprozess. Sie ist entweder selbst Gegenstand der Forschung oder wird als Hilfsmittel zur Erfassung, Verarbeitung und Analyse von Forschungsdaten eingesetzt. Zur Nachvollziehbarkeit der durchgeführten Forschung sollte Software langfristig verfügbar gemacht werden. Im SARA-Projekt zwischen der Universität Konstanz und der Universität Ulm wird ein Dienst entwickelt, der versucht die Einschränkungen bereits bestehender Angebote aufzuheben. Dies beinhaltet u.a. die Möglichkeit, die gesamte Entwicklungshistorie auf einfache Weise mitzuveröffentlichen und für Dritte zur Online-Exploration anzubieten. Zudem bestimmen die Forschenden den Zeitpunkt und Umfang der zu archivierenden/veröffentlichenden Software-Artefakte selbst. Der SARA-Dienst sieht auch die Möglichkeit vor, eine Archivierung ohne Veröffentlichung vorzunehmen. Der geplante Dienst verbindet bereits bestehende Publikations- und Forschungsinfrastrukturen miteinander. Er ermöglicht aus der Arbeitsumgebung der Forschenden heraus eine Archivierung und Veröffentlichung von Software und unterstützt Forschende dabei, bereits prozessbegleitend Zwischenstände ihrer Forschung festzuhalten. Aufgrund seines modularen Aufbaus kann der SARA-Dienst in unterschiedlichen Szenarien zum Einsatz kommen, beispielsweise als kooperativer Dienst für mehrere Einrichtungen. Er stellt eine sinnvolle Ergänzung zu bestehenden Angeboten im Forschungsdatenmanagement dar.
    Form
    Software
  8. Kende, J.: Software as a Service : Herausforderungen bei der Einführung des Bibliothekssystems Alma in der Freien Universität Berlin (2015) 0.01
    0.008563536 = product of:
      0.07707182 = sum of:
        0.07707182 = weight(_text_:software in 2475) [ClassicSimilarity], result of:
          0.07707182 = score(doc=2475,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.49589399 = fieldWeight in 2475, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=2475)
      0.11111111 = coord(1/9)
    
    Abstract
    Moderne Bibliothekssysteme werden zunehmend als Software as a Service (SaaS) angeboten. Die Berliner Bibliotheken der Freien Universität Berlin, der Humboldt Universität, der Technischen Universität und der Universität der Künste haben für 2016 gemeinsam den Umstieg auf das cloudbasierte Bibliothekssystem Alma beschlossen. Der Aufsatz berichtet über die Herausforderungen während der zweijährigen Vertragsverhandlungen mit besonderem Augenmerk auf den Datenschutz.
  9. Kim, T.C.-w.K.; Zumstein, P.: Semiautomatische Katalogisierung und Normdatenverknüpfung mit Zotero im Index Theologicus (2016) 0.01
    0.008563536 = product of:
      0.07707182 = sum of:
        0.07707182 = weight(_text_:software in 3064) [ClassicSimilarity], result of:
          0.07707182 = score(doc=3064,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.49589399 = fieldWeight in 3064, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=3064)
      0.11111111 = coord(1/9)
    
    Abstract
    Im Folgenden soll aufgezeigt werden, wie derzeit das Literaturverwaltungsprogramm Zotero innerhalb des Index Theologicus genutzt wird, um unselbstständige Literatur in einem bibliothekarischen Katalogisierungssystem zu erfassen. Die modulare und flexible Architektur der Open Source Software erlaubt es, die bereits kollaborativ zusammengetragene Programmierarbeit zur Datenextraktion mitzunutzen. Das vorgestellte semiautomatische Verfahren bringt auch bei der Verknüpfung von Normdaten erhebliche Vorteile für die Medienbearbeitung.
    Theme
    Bibliographische Software
  10. Wolfangel, E.: ¬Die Grenzen der künstlichen Intelligenz (2016) 0.01
    0.008477947 = product of:
      0.03815076 = sum of:
        0.014307884 = weight(_text_:systems in 4107) [ClassicSimilarity], result of:
          0.014307884 = score(doc=4107,freq=2.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.118839346 = fieldWeight in 4107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4107)
        0.023842877 = weight(_text_:software in 4107) [ClassicSimilarity], result of:
          0.023842877 = score(doc=4107,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.15340936 = fieldWeight in 4107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4107)
      0.22222222 = coord(2/9)
    
    Abstract
    Der Sieg einer Google-Software über den Weltmeister im Brettspiel Go hat der Technologie der künstlichen Intelligenz gesellschaftlichen Auftrieb verschafft. Die Mühen der Ebene zeigen aber, dass die Algorithmen des maschinellen Lernens allerlei Fallen bergen - auch für ihre Entwickler.
    Content
    Auch überwachtes Lernen ist kaum zu kontrollieren Dabei führt der Begriff überwachtes Lernen in die Irre: Dieses Lernen ist weit weniger zu kontrollieren, als der Begriff suggeriert. Der Algorithmus entscheidet schließlich auf eigene Faust, welche Kriterien wichtig sind für die Unterscheidung. "Deshalb ist es zentral, dass der Trainingsdatensatz repräsentativ ist für die Art von Daten, die man vorhersagen will", sagt Fred Hamprecht, Professor für Bildverarbeitung an der Universität Heidelberg. Das kann allerdings kniffelig sein. So kursiert in Forscherkreisen das Beispiel eines Systems, das darauf trainiert wurde, Panzer auf Bildern zu erkennen. Der Trainingsdatensatz bestand aus Werbebildern der Herstellerfirmen von Panzern und beliebigen anderen Bildern, auf denen kein Panzer zu sehen war. Aber das System funktionierte in der Anwendung nicht - es erkannte Panzer nicht, sondern filterte stattdessen Bilder heraus, auf denen die Sonne schien. Das Problem war schnell erkannt: Auf den Werbebildern hatte ebenfalls stets die Sonne geschienen. Das Netz hatte das als Kriterium angenommen. "Falls das Beispiel nicht wahr ist, ist es zumindest schön erfunden", sagt Hamprecht. Aber nicht alle Fehler sind so einfach zu finden. "Die Frage ist immer, woher die Daten kommen", sagt Hamprecht. Ein Sensor beispielsweise altert oder verschmutzt, Bilder werden eventuell mit der Zeit dunkler. Wer kein falsches Ergebnis haben möchte, muss diese "Datenalterung" mit einrechnen - und sich ihrer dafür erstmal bewusst sein. Auch ein falsches Ergebnis wird nicht unbedingt so einfach entdeckt: Schließlich entscheiden Algorithmen nicht nur über für Menschen offensichtlich zu erkennende Dinge wie die, ob auf einem Bild ein Panzer ist.
  11. Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023) 0.01
    0.0075691673 = product of:
      0.068122506 = sum of:
        0.068122506 = weight(_text_:software in 908) [ClassicSimilarity], result of:
          0.068122506 = score(doc=908,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.43831247 = fieldWeight in 908, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.078125 = fieldNorm(doc=908)
      0.11111111 = coord(1/9)
    
    Abstract
    Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
  12. Edmunds, J.: Zombrary apocalypse!? : RDA, LRM, and the death of cataloging (2017) 0.01
    0.0068929386 = product of:
      0.031018224 = sum of:
        0.014666359 = weight(_text_:of in 3818) [ClassicSimilarity], result of:
          0.014666359 = score(doc=3818,freq=24.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.23940048 = fieldWeight in 3818, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=3818)
        0.016351866 = weight(_text_:systems in 3818) [ClassicSimilarity], result of:
          0.016351866 = score(doc=3818,freq=2.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.1358164 = fieldWeight in 3818, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03125 = fieldNorm(doc=3818)
      0.22222222 = coord(2/9)
    
    Abstract
    A brochure on RDA issued in 2010 includes the statements that "RDA goes beyond earlier cataloguing codes in that it provides guidelines on cataloguing digital resources and a stronger emphasis on helping users find, identify, select, and obtain the information they want. RDA also supports clustering of bibliographic records to show relationships between works and their creators. This important new feature makes users more aware of a work's different editions, translations, or physical formats - an exciting development." Setting aside the fact that the author(s) of these statements and I differ on the definition of exciting, their claims are, at best, dubious. There is no evidence-empirical or anecdotal-that bibliographic records created using RDA are any better than records created using AACR2 (or AACR, for that matter) in "helping users find, identify, select, and obtain the information they want." The claim is especially unfounded in the context of the current discovery ecosystem, in which users are perfectly capable of finding, identifying, selecting, and obtaining information with absolutely no assistance from libraries or the bibliographic data libraries create.
    Equally fallacious is the statement that support for the "clustering bibliographic records to show relationships between works and their creators" is an "important new feature" of RDA. AACR2 bibliographic records and the systems housing them can, did, and do show such relationships. Finally, whether users want or care to be made "more aware of a work's different editions, translations, or physical formats" is debatable. As an aim, it sounds less like what a user wants and more like what a cataloging librarian thinks a user should want. As Amanda Cossham writes in her recently issued doctoral thesis: "The explicit focus on user needs in the FRBR model, the International Cataloguing Principles, and RDA: Resource Description and Access does not align well with the ways that users use, understand, and experience library catalogues nor with the ways that they understand and experience the wider information environment. User tasks, as constituted in the FRBR model and RDA, are insufficient to meet users' needs." (p. 11, emphasis in the original)
    The point of this paper is not to critique RDA (a futile task, since RDA is here to stay), but to make plain that its claim to be a solution to the challenge(s) of bibliographic description in the Internet Age is unfounded, and, secondarily, to explain why such wild claims continue to be advanced and go unchallenged by the rank and file of career catalogers.
  13. Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021) 0.01
    0.006599831 = product of:
      0.02969924 = sum of:
        0.008467626 = weight(_text_:of in 318) [ClassicSimilarity], result of:
          0.008467626 = score(doc=318,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.13821793 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0625 = fieldNorm(doc=318)
        0.021231614 = product of:
          0.042463228 = sum of:
            0.042463228 = weight(_text_:22 in 318) [ClassicSimilarity], result of:
              0.042463228 = score(doc=318,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.30952093 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    In der Session "Knowledge Representation" auf der ISI 2021 wurden unter der Moderation von Jürgen Reischer (Uni Regensburg) drei Projekte vorgestellt, in denen Knowledge Representation mit RDF umgesetzt wird. Die Domänen sind erfreulich unterschiedlich, die gemeinsame Klammer indes ist die Absicht, den Zugang zu Forschungsdaten zu verbessern: - Japanese Visual Media Graph - Taxonomy of Digital Research Activities in the Humanities - Forschungsdaten im konzeptuellen Modell von FRBR
    Date
    22. 5.2021 12:43:05
  14. Scherschel, F.A.: Corona-Tracking : SAP und Deutsche Telekom veröffentlichen erste Details zur Tracing- und Warn-App (2020) 0.01
    0.0064226524 = product of:
      0.05780387 = sum of:
        0.05780387 = weight(_text_:software in 5857) [ClassicSimilarity], result of:
          0.05780387 = score(doc=5857,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.3719205 = fieldWeight in 5857, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=5857)
      0.11111111 = coord(1/9)
    
    Abstract
    Im Auftrag der Bundesregierung entwickeln SAP und die Deutsche Telekom momentan eine Contact-Tracing-App im Rahmen von Apples und Googles Exposure-Notification-Framework. Die sogenannte Corona-Warn-App und alle von ihr genutzten Serverkomponenten sollen im Vorfeld der für kommenden Monat geplanten Veröffentlichung der App unter der Apache-2.0-Lizenz als Open-Source-Software auf GitHub bereitgestellt werden. Nun haben die Projektverantwortlichen erste Dokumente dazu herausgegeben, wie die App später funktionieren soll: https://github.com/corona-warn-app/cwa-documentation.
    Content
    Vgl.: https://www.heise.de/-4721652. Vgl. auch den Beitrag: "Corona-Warnung per App: Fragen und Antworten zur geplanten Tracing-App" unter: https://www.verbraucherzentrale.de/wissen/digitale-welt/apps-und-software/coronawarnung-per-app-fragen-und-antworten-zur-geplanten-tracingapp-47466
  15. Escher, J.: Mündliche Prüfung mit ChatGPT : Oder warum die Primzahl 2023 = 43 × 47 ist (2023) 0.01
    0.0064226524 = product of:
      0.05780387 = sum of:
        0.05780387 = weight(_text_:software in 1002) [ClassicSimilarity], result of:
          0.05780387 = score(doc=1002,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.3719205 = fieldWeight in 1002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=1002)
      0.11111111 = coord(1/9)
    
    Abstract
    Der folgende Text ist aus einer Spielerei mit der KI-Software ChatGPT entstanden. Die ersten paar Fragen und Antworten erzeugten bald eine Situation, die viele als Prüfende aus mündlichen Prüfungen kennen: Es läuft nicht rund, es fallen falsche Antworten oder Fragen können nicht beantwortet werden. Als Folge versucht man zu verstehen, warum sich Prüflinge mit einer Frage schwertun. Es wird der Ehrgeiz geweckt, die sokratische Methode besonders geistreich anzuwenden, um einer richtigen Antwort oder einer Erkenntnis näher zu kommen. Genau diese Mechanik hat sich bei mir eingestellt, und ich habe mich entschlossen, das nachfolgende ,Prüfungsgespräch' zu protokollieren und etwas zu kommentieren. Ich habe dabei einen leichten Duktus gewählt, nicht etwa um mich über Antworten oder die Software lustig zu machen, sondern um zur Lektüre eines Prüfungsprotokolls einzuladen.
  16. Lewandowski, D.: Wie "Next Generation Search Systems" die Suche auf eine neue Ebene heben und die Informationswelt verändern (2017) 0.01
    0.0062938365 = product of:
      0.05664453 = sum of:
        0.05664453 = weight(_text_:systems in 3611) [ClassicSimilarity], result of:
          0.05664453 = score(doc=3611,freq=6.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.4704818 = fieldWeight in 3611, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.0625 = fieldNorm(doc=3611)
      0.11111111 = coord(1/9)
    
    Abstract
    Suchmaschinen befinden sich einerseits in einem beständigen Wandel. Andererseits gibt es immer wieder Entwicklungen, die die Suche "auf eine neue Ebene" heben. Eine solche Entwicklung, die wir zurzeit erleben, wird unter dem Label "Next Generation Search Systems" geführt. Der Begriff fasst die Veränderungen durch eine Vielfalt von Geräten und Eingabemöglichkeiten, die Verfügbarkeit von Verhaltensdaten en masse und den Wandel von Dokumenten zu Antworten zusammen.
    Footnote
    Bezug zum Buch: White, R.: Interactions with search systems. New York ; Cambridge University Press ; 2016.
  17. Krüger, J.: Wie der Mensch die Kontrolle über den Algorithmus behalten kann 0.01
    0.006055334 = product of:
      0.054498006 = sum of:
        0.054498006 = weight(_text_:software in 4061) [ClassicSimilarity], result of:
          0.054498006 = score(doc=4061,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.35064998 = fieldWeight in 4061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=4061)
      0.11111111 = coord(1/9)
    
    Abstract
    Software trifft immer häufiger Entscheidungen mit drastischen Auswirkungen auf unser Leben, ob bei der Kreditvergabe oder in der Medizin. Das Recht sollte dabei eine Möglichkeit zur Prüfung und Kontrolle bieten. Aktuelle Gesetzgebung bietet dafür erste Ansätze. Ein Überblick.
  18. Foerster, H. von; Müller, A.; Müller, K.H.: Rück- und Vorschauen : Heinz von Foerster im Gespräch mit Albert Müller und Karl H. Müller (2001) 0.01
    0.005623473 = product of:
      0.025305627 = sum of:
        0.017343773 = weight(_text_:systems in 5988) [ClassicSimilarity], result of:
          0.017343773 = score(doc=5988,freq=4.0), product of:
            0.12039685 = queryWeight, product of:
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.03917671 = queryNorm
            0.14405504 = fieldWeight in 5988, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.0731742 = idf(docFreq=5561, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5988)
        0.007961854 = product of:
          0.015923709 = sum of:
            0.015923709 = weight(_text_:22 in 5988) [ClassicSimilarity], result of:
              0.015923709 = score(doc=5988,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.116070345 = fieldWeight in 5988, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5988)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Content
    Noch einige Schritte weiter zurück. Oft haben mich Bibliothekare angesprochen, wie sollte man eine Bibliothek aufbauen? Wir schauen, sagten sie, in eine Bibliothek so hinein, als wäre sie wie ein Gedächtnis. "Das ist schön, aber wissen Sie, wie das Gedächtnis funktioniert? "Nein, aber viele Leute sagen, das Gedächtnis arbeitet wie eine große Bibliothek. Man muß nur hineingreifen und das richtige Buch finden. "Das ist alles wunderschön und sehr lieb, aber wissen Sie, die Leute, die ein Buch suchen, suchen es ja nur, weil sie ein Problem haben und hoffen, in dem Buch die Antwort für das Problem zu finden. Das Buch ist nur ein Zwischenträger von einer Frage und einer vielleicht in dem Buch zu findenden Antwort. Aber das Buch ist nicht die Antwort. "Aha, wie stellen Sie sich das vor? Wir sollten das Problem so sehen, daß die Inhalte der Bücher, die semantische Struktur - wenn man jetzt diesen Ausdruck wieder verwenden möchte - dieser Bücher in einem System sitzt, sodaß ich in diese semantische Struktur mit meiner Frage einsteigen kann, und mir die semantische Struktur dieses Systems sagt, dann mußt du Karl Müllers Arbeiten über Symbole lesen, dann wirst du wissen, was du suchst. Ich wüßte aber von vornherein überhaupt nicht, wer der Karl Müller ist, daß er über Symbole geschrieben hat, etc., aber das System kann mir das liefern.
    Da braucht also der Mensch, der sich dafür interessiert, solche Antworten zu finden, nicht erst indirekt über den Karl Müller, den er auf irgendeiner Karteikarte findet, dort hineinzugehen, sondern durch direktes Ansprechen der semantischen Struktur seines Problems, sich mit der semantischen Struktur des Systems in Verbindung setzen, das mir dann weiterhilft in diejenigen Bereiche zu gehen, in denen ich dann vielleicht Antworten für meine Probleme finde. Also mit solchen und ähnlichen Gedanken haben wir uns beschäftigt, und Paul Weston hat hervorragende Arbeiten dazu geschrieben, der hat durch diese Sache durchgeschaut. Der Projektvorschlag, den ich heute noch habe, für dieses unerhörte Riesenprojekt, das waren mehrere Millionen Dollar, wurde überhaupt nicht verstanden. Das brauchen wir nicht, wir haben ja die Bücher, wir haben ja die Karteikarten. Da waren eben Schwierigkeiten, wo mir meine Freunde richtig vorwerfen, Heinz, du hast unseren Fall nicht richtig vorgetragen, sodaß die Leute, die imstande gewesen wären, uns finanziell zu unterstützen, nicht verstanden haben, wovon du redest. Trotz meiner intensiven Bemühungen ist es in vielen Fällen nicht gelungen, eine Überzeugung, ein Verständnis zu erreichen. Mein Gefühl damals war, daß das Verständnis einfach blockiert war, weil schon bestimmte Verständnisdirektionen so festgefroren waren. Um etwas zu erreichen, hätte man viel mehr Zeit gebraucht und vielmehr miteinander sprechen sollen, um ein Verständnis durchzusetzen.
    Date
    10. 9.2006 17:22:54
  19. Iglezakis, D.; Schembera, B.: Anforderungen der Ingenieurwissenschaften an das Forschungsdatenmanagement der Universität Stuttgart : Ergebnisse der Bedarfsanalyse des Projektes DIPL-ING (2018) 0.01
    0.0053522103 = product of:
      0.048169892 = sum of:
        0.048169892 = weight(_text_:software in 4488) [ClassicSimilarity], result of:
          0.048169892 = score(doc=4488,freq=4.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.30993375 = fieldWeight in 4488, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4488)
      0.11111111 = coord(1/9)
    
    Abstract
    Forschungsdaten sind die Grundlage aller wissenschaftlichen Praxis und der Ausgangspunkt für alle daraus gewonnenen Erkenntnisse. Dieser Wert spiegelt sich allerdings oft nicht im Management von Forschungsdaten wider. Insbesondere in den Ingenieurwissenschaften gibt es Nachholbedarf, was das zweckgerichtete Forschungsdatenmanagement angeht, um die Daten nachnutzbar, nachvollziehbar und nachprüfbar zu machen. Die vorliegende Veröffentlichung fasst die Ergebnisse der Bedarfsanalyse des Projektes DIPL-ING zusammen, welches das Ziel hat, gemeinsam mit Ingenieurwissenschaftlerinnen und Ingenieurwissenschaftler Konzepte für das Forschungsdatenmanagement in den Ingenieurwissenschaften bereitzustellen. Anhand von konkreten Anwendungsfällen aus der technischen Thermodynamik und der Aerodynamik wurden Problembereiche und Anforderungen der Ingenieurwissenschaften an das Forschungsdatenmanagement ermittelt. Spezifische Anforderungen ergeben sich dadurch, dass die Forschung zu einem nicht unerheblichen Teil auf Software und Code beruht, der zum Teil sehr große Mengen an Roh- und auch verarbeiteten Daten generiert und weiterverarbeitet. Ziel ist es, eine sinnvolle interne wie externe Nachnutzung von Forschungsdaten zu ermöglichen. Dafür werden fachspezifische Metadatenstandards benötigt, die den Entstehungsprozess der Daten und Codes dokumentieren können und so sowohl die Suchbarkeit als auch die Verständlichkeit der Daten fördern. Zudem fehlen klare fachspezifische Richtlinien, welche Daten für welchen Zeitraum ökonomisch sinnvoll abgelegt werden sollen. Für die Veröffentlichung der Daten werden Infrastrukturen benötigt, die sowohl mit großen Datenmengen wie auch mit Software und Code umgehen können und eine Qualitäts- wie auch Zugriffskontrolle ermöglichen.
  20. Becker, R.: Machine / Deep Learning : wie lernen künstliche neuronale Netze? (2017) 0.01
    0.005298417 = product of:
      0.047685754 = sum of:
        0.047685754 = weight(_text_:software in 4109) [ClassicSimilarity], result of:
          0.047685754 = score(doc=4109,freq=2.0), product of:
            0.15541996 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03917671 = queryNorm
            0.30681872 = fieldWeight in 4109, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4109)
      0.11111111 = coord(1/9)
    
    Abstract
    Ein wichtiges Merkmal von Systemen mit künstlicher Intelligenz ist die Fähigkeit, selbständig zu lernen. Anders als bei klassischer Software, die Probleme und Fragen auf Basis von vorher festgelegten Regeln abarbeitet, können selbstlernende Machine Learning Algorithmen die besten Regeln für die Lösung bestimmter Aufgaben selber lernen. In diesem Artikel wird am Beispiel von künstlichen neuronalen Netzen erklärt, was "lernen" in diesem Zusammenhang heißt, und wie es funktioniert. Ein künstliches neuronales Netz besteht aus vielen einzelnen Neuronen, die meistens in mehreren miteinander verbundenen Schichten (Layern) angeordnet sind. Die Zahl der Layer bestimmt unter anderem den Grad der Komplexität, den ein künstliches neuronales Netz abbilden kann. Viele Layer machen ein neuronales Netz "tief" - daher spricht man in diesem Zusammenhang auch vom Deep Learning als einer Unterkategorie des Machine Learning (Maschinenlernen bzw. maschinelles lernen).

Years