Search (312 results, page 2 of 16)

  • × type_ss:"el"
  1. Mühlbauer, P.: Upload in Computer klappt . (2018) 0.02
    0.024641784 = product of:
      0.098567136 = sum of:
        0.098567136 = sum of:
          0.055400617 = weight(_text_:software in 4113) [ClassicSimilarity], result of:
            0.055400617 = score(doc=4113,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.30681872 = fieldWeight in 4113, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4113)
          0.04316652 = weight(_text_:22 in 4113) [ClassicSimilarity], result of:
            0.04316652 = score(doc=4113,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.2708308 = fieldWeight in 4113, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4113)
      0.25 = coord(1/4)
    
    Abstract
    Den drei an der Technischen Universität in Wien forschenden Informatikern Mathias Lechner, Radu Grosu und Ramin Hasani ist es gelungen, das Nervensystem des Fadenwurm Caenorhabditis elegans (C. elegans) als Software in einen Computer zu übertragen und nachzuweisen, dass der "hochgeladene" virtuelle Wurm auf Reize genau so reagiert wie ein echter Nematodenwurm auf echte Reize in der Realität. Dafür ließen sie ihn eine Aufgabe bewältigen, die Hasani zufolge dem Balancieren eines Stabes ähnelt.
    Date
    12. 2.2018 15:22:19
  2. Vertrauen in Medien (2018) 0.02
    0.023463892 = product of:
      0.09385557 = sum of:
        0.09385557 = weight(_text_:soziale in 4342) [ClassicSimilarity], result of:
          0.09385557 = score(doc=4342,freq=2.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.33751306 = fieldWeight in 4342, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4342)
      0.25 = coord(1/4)
    
    Abstract
    Ergebnisse einer repräsentativen Umfrage der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC "Vertrauen in Medien" unter 1.000 Bundesbürgern. Die Bundesbürger misstrauen den deutschen Medien zunehmend. Das gilt insbesondere für die sozialen Netzwerke. Jeder Vierte hegt generell Misstrauen gegenüber den Medien, in Ostdeutschland ist es sogar jeder Dritte. Der Glaube an den Wahrheitsgehalt in den Medien ist bei einem Drittel der Nutzer in den vergangenen zwei Jahren gesunken. Den größten Verlust verbuchen die sozialen Medien. Ein Grund für das mangelnde Vertrauen: Den Deutschen fehlt es an Kontrollmechanismen, die eine Verbreitung von Hass- und Falschmeldungen verhindern. Aber auch Datenmissbrauchsskandale wie der Cambridge-Analytica-Vorfall haben das Vertrauen der Deutschen in soziale Medien erschüttert. Bemerkenswert ist, dass die Mehrheit der Deutschen auch nach den Datenschutzskandalen nicht vorsichtiger geworden ist. Vier von zehn Bundesbürgern stört die Weitergabe ihrer Daten nicht, wenn dafür das Angebot kostenlos ist. Und nur jeder Zehnte möchte tatsächlich wissen, was mit den eigenen Daten passiert. Ganz wichtig ist für die meisten Nutzer, dass das Angebot gratis ist. Dafür nehmen sie Werbung in Kauf. Drei Viertel der Befragten bevorzugen ein soziales Netzwerk, das sich ausschließlich über nicht-personalisierte Werbung finanziert, keine Nutzerdaten verkauft und trotzdem kostenfrei für den Nutzer bleibt.
  3. Lenzen, M.: Vor der Quadratwurzel steht die Quadratzahl (2015) 0.02
    0.023228066 = product of:
      0.092912264 = sum of:
        0.092912264 = weight(_text_:soziale in 1647) [ClassicSimilarity], result of:
          0.092912264 = score(doc=1647,freq=4.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.33412087 = fieldWeight in 1647, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1647)
      0.25 = coord(1/4)
    
    Content
    "um Jubiläum eine aufwendige Konferenz und Monate bis Jahre später ein teurer Sammelband, den sich bestenfalls die Universitätsbibliotheken ins Regal stellen: Zum zehnjährigen Bestehen der MIND-Group der Universität Mainz sollte es anders laufen. Deshalb hat die von dem Philosophen Thomas Metzinger geleitete Gruppe aus über neunzig Forschern gerade eine rund zweitausend Seiten umfassende Sammlung von 39 Originalarbeiten zu Geist, Gehirn und Bewusstsein ins Internet gestellt. Kostenlos und frei zugänglich für alle unter www.open-mind.net. Die Texte stammen von den Stars und Aufsteigern der Szene: Paul Churchland erklärt Moral mit Prototypen statt Regeln, Wolf Singer sucht nach den Korrelaten des Bewusstseins, Antti Revonsuo erklärt Träume als soziale Simulation, und Jacob Hohwy präsentiert die hoch gehandelte Theorie vom Gehirn als Voraussagemaschine. Metzinger und Jennifer Windt (Mainz/Melbourne), die als Herausgeber fungieren, wollten mit dem ungewöhnlichen Publikationsformat schneller sein als die üblichen wissenschaftlichen Veröffentlichungen, ohne dabei auf professionelle Qualitätskontrolle zu verzichten. Gleichzeitig wollen sie Nachwuchsforscher einbinden, die sich bisweilen schwertun, den Einstieg in die internationale Debatte zu finden. Dazu erdachten sie einen komplexen Review-Prozess: Alle Texte erscheinen mit ausführlichen Kommentaren und Repliken. So entsteht manch lesenswerte Debatte, etwa wenn Kathinka Evers (Uppsala) und ihr Kommentator Stefan Schleim (Groningen) darum ringen, ob es möglich und wünschenswert ist, Menschen auf epigenetischem Weg friedfertiger zu machen. Leserdiskussionen sind allerdings nicht vorgesehen.
    Die Mainzer Gedankenspende soll auch von Studenten in weniger privilegierten Ländern genutzt werden können. Sie gibt einen guten Überblick über die Vielfalt der Baustellen in der Kognitionsforschung: den flexiblen, voraussagenden, kulturbedingten Geist, den schlafenden, träumenden und moralischen Geist, den künstlichen und den aufgebesserten Geist; über Wahrnehmung und Illusion, Intuition, Bewusstsein, das Selbst und soziale Kognition. Aber auch philosophische Klassiker wie die mentale Verursachung bekommen neuen Schub. Das Bewusstsein ist kein Homunkulus Gemeinsam ist vielen Autoren die Unzufriedenheit mit bestehenden Versuchen. Anders als die Theorie vom voraussagenden Gehirn, die sich mit dessen selbst generierter Aktivität befasst, versucht Richard Menary (Sydney), das dynamische Organ in unserem Kopf in seinen kulturellen Kontext zu stellen. Er erklärt, wie moderne Rechenfertigkeiten mittels Schrift und Rechenzeichen aus unserem angeborenen Sinn für Quantitäten hervorgingen. Erst wenn wir ein System der öffentlichen Manipulation von Zahlen haben, können wir Kuriosa wie Quadratwurzeln entdecken.
  4. Palm, F.: QVIZ : Query and context based visualization of time-spatial cultural dynamics (2007) 0.02
    0.021121528 = product of:
      0.08448611 = sum of:
        0.08448611 = sum of:
          0.047486246 = weight(_text_:software in 1289) [ClassicSimilarity], result of:
            0.047486246 = score(doc=1289,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.2629875 = fieldWeight in 1289, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.046875 = fieldNorm(doc=1289)
          0.03699987 = weight(_text_:22 in 1289) [ClassicSimilarity], result of:
            0.03699987 = score(doc=1289,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.23214069 = fieldWeight in 1289, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1289)
      0.25 = coord(1/4)
    
    Abstract
    QVIZ will research and create a framework for visualizing and querying archival resources by a time-space interface based on maps and emergent knowledge structures. The framework will also integrate social software, such as wikis, in order to utilize knowledge in existing and new communities of practice. QVIZ will lead to improved information sharing and knowledge creation, easier access to information in a user-adapted context and innovative ways of exploring and visualizing materials over time, between countries and other administrative units. The common European framework for sharing and accessing archival information provided by the QVIZ project will open a considerably larger commercial market based on archival materials as well as a richer understanding of European history.
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  5. Pro-Cite 2.0 for the IBM and Biblio-Link to USMARC comunications format records (1993) 0.02
    0.020562148 = product of:
      0.08224859 = sum of:
        0.08224859 = product of:
          0.16449718 = sum of:
            0.16449718 = weight(_text_:software in 5618) [ClassicSimilarity], result of:
              0.16449718 = score(doc=5618,freq=6.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.9110154 = fieldWeight in 5618, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5618)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Imprint
    Ann Arbor, MI 48106 : Personal Bibliographic Software, P.O. box 4250
    Issue
    [Software]
    Theme
    Bibliographische Software
  6. ¬The Software Toolworks multimedia encyclopedia (1992) 0.02
    0.019587077 = product of:
      0.07834831 = sum of:
        0.07834831 = product of:
          0.15669662 = sum of:
            0.15669662 = weight(_text_:software in 3599) [ClassicSimilarity], result of:
              0.15669662 = score(doc=3599,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.8678145 = fieldWeight in 3599, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3599)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Imprint
    Novato, CA : Software Toolworks
  7. Dell'Orso, F.: Bibliography management software : with a detailed analysis of some packages (2008) 0.02
    0.019587077 = product of:
      0.07834831 = sum of:
        0.07834831 = product of:
          0.15669662 = sum of:
            0.15669662 = weight(_text_:software in 2373) [ClassicSimilarity], result of:
              0.15669662 = score(doc=2373,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.8678145 = fieldWeight in 2373, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2373)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Theme
    Bibliographische Software
  8. Bibliotheken und die Vernetzung des Wissens (2002) 0.02
    0.018771114 = product of:
      0.075084455 = sum of:
        0.075084455 = weight(_text_:soziale in 1741) [ClassicSimilarity], result of:
          0.075084455 = score(doc=1741,freq=2.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.27001044 = fieldWeight in 1741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.03125 = fieldNorm(doc=1741)
      0.25 = coord(1/4)
    
    Abstract
    Bibliotheken verlassen zunehmend ihre traditionellen Pfade (Sammlung und Bereitstellung von Informationen und Medien) und erproben neue institutionelle Ausrichtungen. Sie übernehmen zusätzlich im Hinblick auf ihre Zielgruppen soziale, kulturelle und lernunterstützenden Funktionen. Diese Profilveränderung kann aber nur in einer vernetzten Struktur von Bildungs-, Kultureinrichtungen und sozialen Institutionen in einem räumlich gesamtzusammenhang stattfinden. diesem Zweck dienen kooperative Bildungs- und Lernarrangements abenso wie an Nutzerbedürfnissen orientierte technische systeme der digitalen Informationspräsentation, Recherche und Interaktion. Praktikern wie wissenschaftlich Interessierten aus Bibliotheken und deren kooperierenden Partnern aus Bildung und Kultur bietet dieser Band eine Fülle praxisorientierter Beispiele, die mögliche Profilveränderungen und Gestaltungsspielräume für Bibliotheken aufzeigen
  9. Lehmann, K.: Neues vom Gehirn : Essays zu Erkenntnissen der Neurobiologie (2017) 0.02
    0.018771114 = product of:
      0.075084455 = sum of:
        0.075084455 = weight(_text_:soziale in 3665) [ClassicSimilarity], result of:
          0.075084455 = score(doc=3665,freq=2.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.27001044 = fieldWeight in 3665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.03125 = fieldNorm(doc=3665)
      0.25 = coord(1/4)
    
    Abstract
    Eine Lawine von Wissensbrocken prasselt hernieder, die unser Verständnis von uns selbst enorm erweitern können. Man muss sie nur passend zusammensetzen. Die raffinierten modernen Methoden der Neurobiologie lassen uns verstehen und sogar berechnen, was uns zum Handeln antreibt: Wie der Wert eines Handlungsziels neuronal kodiert wird, wo und woraus dieser Wert abgeschätzt wird, und warum auch Information einen Wert hat. Sie zeigen auch, wie das gewonnene Wissen im Gehirn gespeichert wird: Wie Wissen über räumliche Zusammenhänge abgespeichert wird. Oder: Welche Wege das neuronale Netz gefunden hat, um zeitlich oder örtlich begrenzt die Lernfähigkeit zu erhöhen, während andererseits Stabilität gewährleistet wird. Denn auch wenn Flexibilität und Plastizität nützliche Fähigkeiten sind: Ebenso wichtig kann es sein, einmal optimierte Verschaltungen zu bewahren. Die Verschiebung des Gleichgewichts zwischen erregenden und hemmenden Nervenzellen ist ein Regler, um diese Grenze zu ziehen. Die Einbringung neuer Nervenzellen ein anderer. Und wenn die neuen Zellen künstlich eingebracht werden, können sich die beiden Regler sogar verbinden. Sogar den großen Fragen widmet sich die aktuelle Hirnforschung mit großem Gewinn. Wir verstehen zunehmend, was den Menschen zum Menschen macht: Soziale Fähigkeiten wie Empathie, Sprache und Musik, die ihn von seinen nächsten Verwandten im Tierreich unterscheiden (und erstaunlicherweise den Vögeln ähnlich macht). Wie das Gehirn kreativ die Gedanken und Bilder hervorbringt, aus denen Kunst und auch Wissenschaft werden, wird begreiflich. Wir sehen mit Staunen, dass die individuelle Persönlichkeit nicht allein im Gehirn steckt, sondern auch im Gedärm. Und können uns sogar der letzten Grenze nähern: der Frage nach dem Bewusstsein. Dr. Konrad Lehmann forscht und lehrt als Neurobiologe an der Friedrich Schiller-Universität Jena. Sein Forschungsschwerpunkt ist die Fähigkeit der Hirnrinde, sich an veränderte Umweltbedingungen anzupassen.
  10. Si, L.E.; O'Brien, A.; Probets, S.: Integration of distributed terminology resources to facilitate subject cross-browsing for library portal systems (2009) 0.02
    0.017601274 = product of:
      0.070405096 = sum of:
        0.070405096 = sum of:
          0.03957187 = weight(_text_:software in 3628) [ClassicSimilarity], result of:
            0.03957187 = score(doc=3628,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.21915624 = fieldWeight in 3628, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3628)
          0.030833228 = weight(_text_:22 in 3628) [ClassicSimilarity], result of:
            0.030833228 = score(doc=3628,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.19345059 = fieldWeight in 3628, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3628)
      0.25 = coord(1/4)
    
    Abstract
    Purpose: To develop a prototype middleware framework between different terminology resources in order to provide a subject cross-browsing service for library portal systems. Design/methodology/approach: Nine terminology experts were interviewed to collect appropriate knowledge to support the development of a theoretical framework for the research. Based on this, a simplified software-based prototype system was constructed incorporating the knowledge acquired. The prototype involved mappings between the computer science schedule of the Dewey Decimal Classification (which acted as a spine) and two controlled vocabularies UKAT and ACM Computing Classification. Subsequently, six further experts in the field were invited to evaluate the prototype system and provide feedback to improve the framework. Findings: The major findings showed that given the large variety of terminology resources distributed on the web, the proposed middleware service is essential to integrate technically and semantically the different terminology resources in order to facilitate subject cross-browsing. A set of recommendations are also made outlining the important approaches and features that support such a cross browsing middleware service.
    Content
    This paper is a pre-print version presented at the ISKO UK 2009 conference, 22-23 June, prior to peer review and editing. For published proceedings see special issue of Aslib Proceedings journal.
  11. Andelfinger, U.; Wyssusek, B.; Kremberg, B.; Totzke, R.: Ontologies in knowledge management : panacea or mirage? 0.02
    0.016591476 = product of:
      0.066365905 = sum of:
        0.066365905 = weight(_text_:soziale in 4393) [ClassicSimilarity], result of:
          0.066365905 = score(doc=4393,freq=4.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.23865776 = fieldWeight in 4393, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4393)
      0.25 = coord(1/4)
    
    Content
    Als theoretischen Ausgangspunkt wählen wir in unserem Beitrag eine medienphilosophische Perspektive, die von der Fragestellung ausgeht, inwieweit menschliches Wissen, das von Subjekten explizit oder implizit gewusst wird und Sinn und Bedeutungsbezüge hat, bereits dadurch prinzipiell verändert und möglicherweise um Wesentliches reduziert wird, wenn es in technischen Ontologien - notwendigerweise symbolhaft - repräsentiert wird. Zunächst wird dazu in unserem Beitrag historisch die jahrhundertelange Tradition insbesondere der abendländischen Kulturen seit dem Mittelalter nachgezeichnet, derzufolge zunehmend die epistemische Seite von ,Wissen' in den Vordergrund gestellt wurde, die sich besonders gut symbolisch, d.h. zeichenvermittelt darstellen lässt. Demgegenüber sind wissenschaftshistorisch andere Aspekte menschlichen Wissens wie z.B. die soziale Einbettung symbolvermittelten Wissens und Anteile ,impliziten Wissens' zunehmend in den Hintergrund getreten. Auch Fragen nach Sinn und Bedeutung bzw. reflektionsorientiertem Orientierungswissen sind teilweise davon betroffen.
    In der Finanzwirtschaft mit ihren automatisierten Handelssystemen (auf Basis technischer Ontologien) wird beispielsweise inzwischen bei außergewöhnlichen Kursbewegungen der Börse der automatische Handel unterbrochen, so dass dann auf pragmatisch-natürlichsprachliche Weise nach den Gründen für die Ausschläge gesucht werden kann. Aus Sicht der technischen Ontologien wäre eine solche Unterbrechung des Computerhandels (zur Beruhigung der Märkte) nicht zwingend erforderlich, aber sie ist sehr sinnvoll aus einer außerhalb der technischen Ontologie stehenden Perspektive, die alleine nach Sinn und Bedeutung stabiler Kursverläufe zu fragen imstande ist. Der hier sich abzeichnende ,pragmatic turn' beim Einsatz technischer Ontologien ist auch in vielfältiger Weise in Trends wie z.B. Folksonomies, Sozialen Netzwerken und Open-SourceEntwicklergruppen zu erkennen. Diese Gemeinschaften zeichnen sich dadurch aus, dass sie zwar (technische) Ontologien einsetzen, diese jedoch in intensive soziale Austauschprozesse einbinden, in denen die formalen Wissensrepräsentationen mit situativer Bedeutung und Sinn versehen und angereichert werden. Dieser Trend zu ,weicheren' Formen der Nutzung von (technischen) Ontologien scheint nach aktuellem Wissensstand auf jeden Fall in der Praxis erfolgversprechender als die anfänglichen Hoffnungen des Semantic Web oder vollständiger (technischer) Ontologien - ganz abgesehen vom laufenden Pflegeaufwand 'vollständiger' technischer Ontologien.
  12. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.02
    0.015060372 = product of:
      0.060241487 = sum of:
        0.060241487 = product of:
          0.18072446 = sum of:
            0.18072446 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.18072446 = score(doc=5669,freq=2.0), product of:
                0.38587612 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045514934 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  13. Bradford, R.B.: Relationship discovery in large text collections using Latent Semantic Indexing (2006) 0.01
    0.01408102 = product of:
      0.05632408 = sum of:
        0.05632408 = sum of:
          0.0316575 = weight(_text_:software in 1163) [ClassicSimilarity], result of:
            0.0316575 = score(doc=1163,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.17532499 = fieldWeight in 1163, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.03125 = fieldNorm(doc=1163)
          0.024666581 = weight(_text_:22 in 1163) [ClassicSimilarity], result of:
            0.024666581 = score(doc=1163,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.15476047 = fieldWeight in 1163, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1163)
      0.25 = coord(1/4)
    
    Abstract
    This paper addresses the problem of information discovery in large collections of text. For users, one of the key problems in working with such collections is determining where to focus their attention. In selecting documents for examination, users must be able to formulate reasonably precise queries. Queries that are too broad will greatly reduce the efficiency of information discovery efforts by overwhelming the users with peripheral information. In order to formulate efficient queries, a mechanism is needed to automatically alert users regarding potentially interesting information contained within the collection. This paper presents the results of an experiment designed to test one approach to generation of such alerts. The technique of latent semantic indexing (LSI) is used to identify relationships among entities of interest. Entity extraction software is used to pre-process the text of the collection so that the LSI space contains representation vectors for named entities in addition to those for individual terms. In the LSI space, the cosine of the angle between the representation vectors for two entities captures important information regarding the degree of association of those two entities. For appropriate choices of entities, determining the entity pairs with the highest mutual cosine values yields valuable information regarding the contents of the text collection. The test database used for the experiment consists of 150,000 news articles. The proposed approach for alert generation is tested using a counterterrorism analysis example. The approach is shown to have significant potential for aiding users in rapidly focusing on information of potential importance in large text collections. The approach also has value in identifying possible use of aliases.
    Source
    Proceedings of the Fourth Workshop on Link Analysis, Counterterrorism, and Security, SIAM Data Mining Conference, Bethesda, MD, 20-22 April, 2006. [http://www.siam.org/meetings/sdm06/workproceed/Link%20Analysis/15.pdf]
  14. Gillitzer, B.: Yewno (2017) 0.01
    0.01408102 = product of:
      0.05632408 = sum of:
        0.05632408 = sum of:
          0.0316575 = weight(_text_:software in 3447) [ClassicSimilarity], result of:
            0.0316575 = score(doc=3447,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.17532499 = fieldWeight in 3447, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.03125 = fieldNorm(doc=3447)
          0.024666581 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
            0.024666581 = score(doc=3447,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.15476047 = fieldWeight in 3447, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3447)
      0.25 = coord(1/4)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  15. Scobel, G.: GPT: Eine Software, die die Welt verändert (2023) 0.01
    0.01399077 = product of:
      0.05596308 = sum of:
        0.05596308 = product of:
          0.11192616 = sum of:
            0.11192616 = weight(_text_:software in 839) [ClassicSimilarity], result of:
              0.11192616 = score(doc=839,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.6198675 = fieldWeight in 839, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.078125 = fieldNorm(doc=839)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    GPT-3 ist eine jener Entwicklungen, die binnen weniger Monate an Einfluss und Reichweite zulegen. Die Software wird sich massiv auf Ökonomie und Gesellschaft auswirken.
  16. Pumuckl musiziert (1996) 0.01
    0.013850154 = product of:
      0.055400617 = sum of:
        0.055400617 = product of:
          0.110801235 = sum of:
            0.110801235 = weight(_text_:software in 5477) [ClassicSimilarity], result of:
              0.110801235 = score(doc=5477,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.61363745 = fieldWeight in 5477, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5477)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Imprint
    ? : ESCAL Software
  17. Atzbach, R.: ¬Der Rechtschreibtrainer : Rechtschreibübungen und -spiele für die 5. bis 9. Klasse (1996) 0.01
    0.013850154 = product of:
      0.055400617 = sum of:
        0.055400617 = product of:
          0.110801235 = sum of:
            0.110801235 = weight(_text_:software in 5579) [ClassicSimilarity], result of:
              0.110801235 = score(doc=5579,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.61363745 = fieldWeight in 5579, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5579)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Imprint
    Berlin : Cornelsen Software
  18. Koch, T.; Ardö, A.: Automatic classification of full-text HTML-documents from one specific subject area : DESIRE II D3.6a, Working Paper 2 (2000) 0.01
    0.013708099 = product of:
      0.054832395 = sum of:
        0.054832395 = product of:
          0.10966479 = sum of:
            0.10966479 = weight(_text_:software in 1667) [ClassicSimilarity], result of:
              0.10966479 = score(doc=1667,freq=6.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.6073436 = fieldWeight in 1667, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1667)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    1 Introduction / 2 Method overview / 3 Ei thesaurus preprocessing / 4 Automatic classification process: 4.1 Matching -- 4.2 Weighting -- 4.3 Preparation for display / 5 Results of the classification process / 6 Evaluations / 7 Software / 8 Other applications / 9 Experiments with universal classification systems / References / Appendix A: Ei classification service: Software / Appendix B: Use of the classification software as subject filter in a WWW harvester.
  19. Heller, L.: Ergebnisse der Benutzerumfrage "Literaturverwaltung - Was ich benutze und was ich brauche", TIB/UB Hannover 2011 (2011) 0.01
    0.013708099 = product of:
      0.054832395 = sum of:
        0.054832395 = product of:
          0.10966479 = sum of:
            0.10966479 = weight(_text_:software in 4884) [ClassicSimilarity], result of:
              0.10966479 = score(doc=4884,freq=6.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.6073436 = fieldWeight in 4884, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4884)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Raw data set (in CSV format) of a user survey about usage and needs regarding reference management software (like Endnote, Zotero, Citavi) in germany 2011. Participants were mainly college students, librarians, and other users of reference management software.
    Theme
    Bibliographische Software
  20. Durno, J.: Digital archaeology and/or forensics : working with floppy disks from the 1980s (2016) 0.01
    0.013708099 = product of:
      0.054832395 = sum of:
        0.054832395 = product of:
          0.10966479 = sum of:
            0.10966479 = weight(_text_:software in 3196) [ClassicSimilarity], result of:
              0.10966479 = score(doc=3196,freq=6.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.6073436 = fieldWeight in 3196, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3196)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    While software originating from the domain of digital forensics has demonstrated utility for data recovery from contemporary storage media, it is not as effective for working with floppy disks from the 1980s. This paper details alternative strategies for recovering data from floppy disks employing software originating from the software preservation and retro-computing communities. Imaging hardware, storage formats and processing workflows are also discussed.

Years

Languages

  • d 154
  • e 150
  • el 2
  • a 1
  • i 1
  • nl 1
  • More… Less…

Types

  • a 131
  • i 17
  • m 8
  • r 6
  • x 5
  • b 4
  • s 4
  • n 3
  • p 1
  • More… Less…