Search (584 results, page 2 of 30)

  • × type_ss:"a"
  • × year_i:[2020 TO 2030}
  1. Christensen, A.; Finck, M.: Discovery-Systeme : eine Analyse ihrer Geschichte und Gegenwart mit dem Hype-Zyklus (2021) 0.02
    0.019205028 = product of:
      0.09218414 = sum of:
        0.019074813 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.019074813 = score(doc=552,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 552, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=552)
        0.019375484 = weight(_text_:der in 552) [ClassicSimilarity], result of:
          0.019375484 = score(doc=552,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 552, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=552)
        0.0120124435 = product of:
          0.024024887 = sum of:
            0.024024887 = weight(_text_:29 in 552) [ClassicSimilarity], result of:
              0.024024887 = score(doc=552,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31092256 = fieldWeight in 552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=552)
          0.5 = coord(1/2)
        0.019074813 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.019074813 = score(doc=552,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 552, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=552)
        0.022646595 = product of:
          0.04529319 = sum of:
            0.04529319 = weight(_text_:deutschland in 552) [ClassicSimilarity], result of:
              0.04529319 = score(doc=552,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.42691165 = fieldWeight in 552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0625 = fieldNorm(doc=552)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Der Beitrag analysiert die Entstehungsgeschichte von bibliothekarischen Discovery-Systemen in Wissenschaftlichen Bibliotheken, mit einem Fokus auf Bibliotheken in Deutschland. Hierfür dient der Hype-Zyklus als Rahmen, um vor allem auch auf die Erwartungen und Rezeption der Systeme in bibliothekarischen Kreisen einzugehen und diese zu diskutieren. Der Beitrag liefert außerdem einen Ausblick auf künftige Potenziale von Discovery-Systemen, auch im Kontext von forschungsnahen Dienstleistungen.
    Date
    6.12.2021 17:20:29
    Source
    Bibliothek: Forschung und Praxis. 45(2021) H.3, S.497-508
  2. Scherschel, F.A.: Corona-Tracking : SAP und Deutsche Telekom veröffentlichen erste Details zur Tracing- und Warn-App (2020) 0.02
    0.018859638 = product of:
      0.11315782 = sum of:
        0.022619944 = weight(_text_:und in 5857) [ClassicSimilarity], result of:
          0.022619944 = score(doc=5857,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 5857, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5857)
        0.053386316 = weight(_text_:fragen in 5857) [ClassicSimilarity], result of:
          0.053386316 = score(doc=5857,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.47733653 = fieldWeight in 5857, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=5857)
        0.014531613 = weight(_text_:der in 5857) [ClassicSimilarity], result of:
          0.014531613 = score(doc=5857,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 5857, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5857)
        0.022619944 = weight(_text_:und in 5857) [ClassicSimilarity], result of:
          0.022619944 = score(doc=5857,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 5857, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5857)
      0.16666667 = coord(4/24)
    
    Abstract
    Im Auftrag der Bundesregierung entwickeln SAP und die Deutsche Telekom momentan eine Contact-Tracing-App im Rahmen von Apples und Googles Exposure-Notification-Framework. Die sogenannte Corona-Warn-App und alle von ihr genutzten Serverkomponenten sollen im Vorfeld der für kommenden Monat geplanten Veröffentlichung der App unter der Apache-2.0-Lizenz als Open-Source-Software auf GitHub bereitgestellt werden. Nun haben die Projektverantwortlichen erste Dokumente dazu herausgegeben, wie die App später funktionieren soll: https://github.com/corona-warn-app/cwa-documentation.
    Content
    Vgl.: https://www.heise.de/-4721652. Vgl. auch den Beitrag: "Corona-Warnung per App: Fragen und Antworten zur geplanten Tracing-App" unter: https://www.verbraucherzentrale.de/wissen/digitale-welt/apps-und-software/coronawarnung-per-app-fragen-und-antworten-zur-geplanten-tracingapp-47466
    Source
    https://www.heise.de/newsticker/meldung/Corona-Tracking-SAP-und-Deutsche-Telekom-veroeffentlichen-erste-Details-zur-Tracing-und-Warn-App-4721652.html?view=print
  3. Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : das Verlangen nach einer verständlichen Wissenschaftssprache (2020) 0.02
    0.018330162 = product of:
      0.087984785 = sum of:
        0.018925203 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.018925203 = score(doc=5684,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.011167361 = weight(_text_:des in 5684) [ClassicSimilarity], result of:
          0.011167361 = score(doc=5684,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 5684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.029957687 = weight(_text_:der in 5684) [ClassicSimilarity], result of:
          0.029957687 = score(doc=5684,freq=34.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.61054623 = fieldWeight in 5684, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.009009332 = product of:
          0.018018665 = sum of:
            0.018018665 = weight(_text_:29 in 5684) [ClassicSimilarity], result of:
              0.018018665 = score(doc=5684,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23319192 = fieldWeight in 5684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5684)
          0.5 = coord(1/2)
        0.018925203 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.018925203 = score(doc=5684,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
      0.20833333 = coord(5/24)
    
    Abstract
    Informationskompetenz in den Bibliotheken und in der Informationswissenschaft. Es ist erschreckend, dass im Zeitalter der vieldiskutierten "Desinformationen" und "Fake News" im Medienbereich der einzige Beitrag der Informationswissenschaft in der Betonung einer irgendwie ausgestalteten "Informationskompetenz", manchmal ergänzt um eine ebenso imaginäre "Medienkompetenz" besteht. Man möchte sich gern zum verbindlichen Entscheider darüber erklären, was wahre und falsche Information, was Hate Speech und Fakten sind. Der Türöffner dafür soll das bibliothekarisch besetzte Feld der "Informationskompetenz" sein, dass man nunmehr für den Gesamtbereich der "Information" besetzen möchte. Die ursprüngliche Beschränkung der bibliothekarischen Domäne der Informationskompetenz auf eine berufsrelevante Vermittlung von InformationsSUCHkompetenz wird dafür geopfert. Der Ursprung des Begriffes "Informationskompetenz" liegt im Bibliotheksbereich und sollte dort beheimatet bleiben.
    Content
    Fortsetzung von: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch: Wie man mit "Information" umgehen sollte: Das Beispiel der Medienforschung. Unter: Open Password. 2020, Nr.777 vom 29. Juni 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ].
    Series
    Zukunft der Informationswissenschaft
  4. Sailer-Wlasits, P.: ¬Das Zeitalter der Uneigentlichkeit hat begonnen (2020) 0.02
    0.017049577 = product of:
      0.081837974 = sum of:
        0.008366567 = product of:
          0.0250997 = sum of:
            0.0250997 = weight(_text_:p in 5136) [ClassicSimilarity], result of:
              0.0250997 = score(doc=5136,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31780142 = fieldWeight in 5136, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5136)
          0.33333334 = coord(1/3)
        0.016519273 = weight(_text_:und in 5136) [ClassicSimilarity], result of:
          0.016519273 = score(doc=5136,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 5136, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5136)
        0.021057379 = weight(_text_:des in 5136) [ClassicSimilarity], result of:
          0.021057379 = score(doc=5136,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.34616345 = fieldWeight in 5136, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5136)
        0.019375484 = weight(_text_:der in 5136) [ClassicSimilarity], result of:
          0.019375484 = score(doc=5136,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 5136, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5136)
        0.016519273 = weight(_text_:und in 5136) [ClassicSimilarity], result of:
          0.016519273 = score(doc=5136,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 5136, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5136)
      0.20833333 = coord(5/24)
    
    Abstract
    Uneigentlichkeit ist die Form des sich vollziehenden dritten Jahrtausends. Wie sie uns alle betreffen wird und warum sie uns ängstigen sollte. Eine philosophische Spurensuche.
    Footnote
    Der Text ist ein Auszug aus der "Vorrede" des neuen Buchs von Paul Sailer-Wlasits: "Uneigentlichkeit. Philosophische Besichtigungen zwischen Metapher, Zeugenschaft und Wahrsprechen. Ein Essay".
    Series
    Telepolis: Kultur und Medien
    Source
    https://www.heise.de/tp/features/Das-Zeitalter-der-Uneigentlichkeit-hat-begonnen-4663517.html?wt_mc=nl.tp-aktuell.woechentlich
  5. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.02
    0.016621446 = product of:
      0.07978295 = sum of:
        0.020231893 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.020231893 = score(doc=266,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.011167361 = weight(_text_:des in 266) [ClassicSimilarity], result of:
          0.011167361 = score(doc=266,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.019223517 = weight(_text_:der in 266) [ClassicSimilarity], result of:
          0.019223517 = score(doc=266,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3917808 = fieldWeight in 266, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.020231893 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.020231893 = score(doc=266,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.008928288 = product of:
          0.017856576 = sum of:
            0.017856576 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.017856576 = score(doc=266,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    In den Handlungsempfehlungen der Koordinierungsstelle für die Erhaltung des schriftlichen Kulturguts (KEK) von 2015 (KEK-Handlungsempfehlungen) wird ein nationaler Standard bei der Dokumentation von Bestandserhaltung gefordert: "In den Bibliothekskatalogen sollten künftig für den verbundübergreifenden Abgleich Bestandserhaltungsmaßnahmen für die Bestände ab 1851 [.] in standardisierter Form dokumentiert und recherchierbar gemacht werden. Dies bedarf einer gemeinsamen Festlegung mit den Bibliotheksverbünden [.]." In den KEK-Handlungsempfehlungen werden auf der Basis einer im Jahr 2015 erfolgten Erhebung für Monografien fast neun Millionen Bände aus dem Zeitabschnitt 1851-1990 als Pflichtexemplare an Bundes- und Ländereinrichtungen angegeben, die akut vom Papierzerfall bedroht und als erste Stufe einer Gesamtstrategie zu entsäuern sind. Ein Ziel der KEK ist es, standardisierte und zertifizierte Verfahren zur Massenentsäuerung zu fördern. Im Metadatenformat sind zunächst fünf Verfahren der Massenentsäuerung in Form von kontrolliertem Vokabular dokumentiert: DEZ, Mg3/MBG, METE, MgO, MMMC[2]. Mit diesen Angaben, die gezielt selektiert werden können, ist mittel- und langfristig die Anwendung einzelner Verfahren der Massenentsäuerung abrufbar und statistisch auswertbar.
    Date
    22. 5.2021 12:43:05
  6. Lopez, P.: Artificial Intelligence und die normative Kraft des Faktischen (2021) 0.02
    0.016096106 = product of:
      0.077261314 = sum of:
        0.008366567 = product of:
          0.0250997 = sum of:
            0.0250997 = weight(_text_:p in 1025) [ClassicSimilarity], result of:
              0.0250997 = score(doc=1025,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31780142 = fieldWeight in 1025, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1025)
          0.33333334 = coord(1/3)
        0.019074813 = weight(_text_:und in 1025) [ClassicSimilarity], result of:
          0.019074813 = score(doc=1025,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 1025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1025)
        0.021057379 = weight(_text_:des in 1025) [ClassicSimilarity], result of:
          0.021057379 = score(doc=1025,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.34616345 = fieldWeight in 1025, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=1025)
        0.009687742 = weight(_text_:der in 1025) [ClassicSimilarity], result of:
          0.009687742 = score(doc=1025,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 1025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1025)
        0.019074813 = weight(_text_:und in 1025) [ClassicSimilarity], result of:
          0.019074813 = score(doc=1025,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 1025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1025)
      0.20833333 = coord(5/24)
    
    Abstract
    Den Gesundheitszustand von Patienten zu prognostizieren, um medizinische Präventionsmaßnahmen möglichst sinnvoll zu verteilen, ist schwieriger, als man denkt. Dabei scheint die Problemstellung denkbar simpel: Es sollen diejenigen Patientinnen zusätzliche Präventionsmaßnahmen erhalten, deren Gesundheitszustand sich zu verschlechtern droht. Doch der Gesundheitszustand ist, wie die meisten menschlichen Angelegenheiten, zu komplex, um ihn einheitlich messen und quantifizieren zu können. Das gilt auch dann, wenn alle Patientendaten vollständig zur Verfügung stehen und mit Big-Data-Methoden verarbeitet werden können.
    Source
    Merkur. Heft 863, April 20213, S.42-52 [https://www.merkur-zeitschrift.de/artikel/artificial-intelligence-und-die-normative-kraft-des-faktischen-a-mr-75-4-42]
  7. Herb, U.: Sci-hub = Spy-Hub? (2020) 0.02
    0.016041502 = product of:
      0.07699922 = sum of:
        0.016690461 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
          0.016690461 = score(doc=5333,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 5333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.018425206 = weight(_text_:des in 5333) [ClassicSimilarity], result of:
          0.018425206 = score(doc=5333,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 5333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.014682204 = weight(_text_:der in 5333) [ClassicSimilarity], result of:
          0.014682204 = score(doc=5333,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29922754 = fieldWeight in 5333, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.010510888 = product of:
          0.021021776 = sum of:
            0.021021776 = weight(_text_:29 in 5333) [ClassicSimilarity], result of:
              0.021021776 = score(doc=5333,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.27205724 = fieldWeight in 5333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5333)
          0.5 = coord(1/2)
        0.016690461 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
          0.016690461 = score(doc=5333,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 5333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
      0.20833333 = coord(5/24)
    
    Abstract
    Phishing-Verdacht gegen die Schattenbibliothek. Wieder einmal drohen der Schattenbibliothek Sci-Hub, die kostenpflichtige Verlagspublikationen wissenschaftlicher Art unter Umgehung des Copyrights kostenlos verbreitet, juristische Widrigkeiten. Bereits 2017 gestand ein New Yorker Gericht Elsevier, neben Wiley und Springer Nature einer der drei größten Wissenschaftsverlage, 15 Millionen US-Dollar Schadensersatz für Urheberrechtsverletzungen zu, basierend auf einer durch Elsevier dem Gericht vorgelegten Liste von 100 Artikeln, die von den Schattenbibliotheken Sci-Hub und LibGen illegal zur Verfügung gestellt wurden. Dieses und andere Urteile ließen sich jedoch mangels Zugriffes auf Sci-Hub und dessen Verantwortliche außerhalb des juristischen Einflussbereiches der USA nicht durchsetzen.
    Date
    29. 6.2019 17:46:17
  8. Verch, U.: Alles was Recht ist : das Buchpreisbindungsgesetz (2022) 0.02
    0.015872693 = product of:
      0.07618893 = sum of:
        0.014454362 = weight(_text_:und in 4843) [ClassicSimilarity], result of:
          0.014454362 = score(doc=4843,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 4843, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4843)
        0.016953548 = weight(_text_:der in 4843) [ClassicSimilarity], result of:
          0.016953548 = score(doc=4843,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34551817 = fieldWeight in 4843, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4843)
        0.010510888 = product of:
          0.021021776 = sum of:
            0.021021776 = weight(_text_:29 in 4843) [ClassicSimilarity], result of:
              0.021021776 = score(doc=4843,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.27205724 = fieldWeight in 4843, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4843)
          0.5 = coord(1/2)
        0.014454362 = weight(_text_:und in 4843) [ClassicSimilarity], result of:
          0.014454362 = score(doc=4843,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 4843, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4843)
        0.01981577 = product of:
          0.03963154 = sum of:
            0.03963154 = weight(_text_:deutschland in 4843) [ClassicSimilarity], result of:
              0.03963154 = score(doc=4843,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.3735477 = fieldWeight in 4843, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4843)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Im Gegensatz zu Großbritannien, der Schweiz und weiteren europäischen Ländern unterliegen Bücher in Deutschland einer Preisbindung, die mit einer langen Tradition verbunden ist. Sie betrifft nicht nur gedruckte Bücher, sondern seit der Gesetzesnovelle von 2016 auch E-Books sowie andere Mediengattungen. Rechtliche Grundlage ist das Buchpreisbindungsgesetz, das im Beitrag näher vorgestellt wird. Der Text gibt einen Überblick über die wichtigsten Regelungen zur Buchpreisbindung, die für angehende Bibliothekar*innen und Buchexpert*innen in ihrem späteren Berufsleben von Relevanz sind. Auch wichtige Gerichtsurteile und aktuelle Entwicklungen wie die Debatte um das Gutachten der Monopolkommission werden dabei in den Blick genommen.
    Date
    28. 1.2022 11:05:29
  9. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" I : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.02
    0.01569872 = product of:
      0.07535385 = sum of:
        0.015771002 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.015771002 = score(doc=338,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 338, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
        0.016118698 = weight(_text_:des in 338) [ClassicSimilarity], result of:
          0.016118698 = score(doc=338,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 338, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
        0.013539031 = weight(_text_:der in 338) [ClassicSimilarity], result of:
          0.013539031 = score(doc=338,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27592933 = fieldWeight in 338, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
        0.015771002 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.015771002 = score(doc=338,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 338, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
        0.014154121 = product of:
          0.028308243 = sum of:
            0.028308243 = weight(_text_:deutschland in 338) [ClassicSimilarity], result of:
              0.028308243 = score(doc=338,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.26681978 = fieldWeight in 338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=338)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Wenn ein Programmkomitee für ein wissenschaftliches Symposium mit 65 Personen besetzt wird, dann darf man sich auf ein breites und qualitativ fundiertes Programm und Symposium freuen, auch wenn der Abstimmungsbedarf zwischen den 65 Komiteemitgliedern extrem aufwendig gewesen sein muss. Coronabedingt musste das dreitätige Symposium virtuell stattfinden und organisiert werden. Dennoch wurde als offizieller Tagungsort Regensburg gewählt und wohl auch in Erinnerung an den leider viel zu früh verstorbenen Rainer Hammwöhner das Thema "Information Science and its Neighbours from Data Science to Digital Humanities" im Subtitel des Tagungsthemas "Information between Data and Knowledge" gewählt. Schließlich war es Rainer Hammwöhner (in Zusammenarbeit mit David Elsweiler und Christian Wolff), der schon 2015 auf den für die deutschsprachige Informationswissenschaft erschreckenden Tatbestand einer langjährig naiv anmutenden Ignoranz des internationalen "Information Behavior"-Forschungsfeldes hinwies: "Man wird der deutschsprachigen Informationswissenschaft nicht wirklich unrecht tun, wenn man sie in Sachen Informationsverhalten als Spätentwickler charakterisiert. Einem der Herausgeber dieses Themenheftes ist diesbezüglich noch gut in Erinnerung, wie er 2007 im Rahmen des informationswissenschaftlichen Symposiums in Köln von einem Kollegen aus Down Under gefragt wurde, warum es denn in Deutschland keine Forschung zu diesem Thema gebe, wo dies doch in der englischsprachigen Community seit Jahren ein heißes Thema sei" (David Elsweiler, Rainer Hammwöhner und Christian Wolff, Regensburg: Informationsverhalten als Forschungsgegenstand, in: Information. Wissenschaft & Praxis 2015; 66(1): 1-2).
  10. Arndt, O.: Erosion der bürgerlichen Freiheiten (2020) 0.02
    0.015512901 = product of:
      0.07446193 = sum of:
        0.011921758 = weight(_text_:und in 82) [ClassicSimilarity], result of:
          0.011921758 = score(doc=82,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 82, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=82)
        0.01861227 = weight(_text_:des in 82) [ClassicSimilarity], result of:
          0.01861227 = score(doc=82,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.30596817 = fieldWeight in 82, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=82)
        0.01712567 = weight(_text_:der in 82) [ClassicSimilarity], result of:
          0.01712567 = score(doc=82,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34902605 = fieldWeight in 82, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=82)
        0.011921758 = weight(_text_:und in 82) [ClassicSimilarity], result of:
          0.011921758 = score(doc=82,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 82, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=82)
        0.01488048 = product of:
          0.02976096 = sum of:
            0.02976096 = weight(_text_:22 in 82) [ClassicSimilarity], result of:
              0.02976096 = score(doc=82,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.38690117 = fieldWeight in 82, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=82)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Inwieweit die für smart cities nötige KI und Standards wie 5G grundsätzlich zu einer umfassenden Militarisierung des Alltags führen.
    Date
    22. 6.2020 19:16:24
    Source
    https://www.heise.de/tp/features/Erosion-der-buergerlichen-Freiheiten-4790106.html?seite=all
  11. Escher, J.: Mündliche Prüfung mit ChatGPT : Oder warum die Primzahl 2023 = 43 × 47 ist (2023) 0.02
    0.015449472 = product of:
      0.09269683 = sum of:
        0.012389454 = weight(_text_:und in 1002) [ClassicSimilarity], result of:
          0.012389454 = score(doc=1002,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 1002, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1002)
        0.053386316 = weight(_text_:fragen in 1002) [ClassicSimilarity], result of:
          0.053386316 = score(doc=1002,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.47733653 = fieldWeight in 1002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=1002)
        0.014531613 = weight(_text_:der in 1002) [ClassicSimilarity], result of:
          0.014531613 = score(doc=1002,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 1002, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1002)
        0.012389454 = weight(_text_:und in 1002) [ClassicSimilarity], result of:
          0.012389454 = score(doc=1002,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 1002, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1002)
      0.16666667 = coord(4/24)
    
    Abstract
    Der folgende Text ist aus einer Spielerei mit der KI-Software ChatGPT entstanden. Die ersten paar Fragen und Antworten erzeugten bald eine Situation, die viele als Prüfende aus mündlichen Prüfungen kennen: Es läuft nicht rund, es fallen falsche Antworten oder Fragen können nicht beantwortet werden. Als Folge versucht man zu verstehen, warum sich Prüflinge mit einer Frage schwertun. Es wird der Ehrgeiz geweckt, die sokratische Methode besonders geistreich anzuwenden, um einer richtigen Antwort oder einer Erkenntnis näher zu kommen. Genau diese Mechanik hat sich bei mir eingestellt, und ich habe mich entschlossen, das nachfolgende ,Prüfungsgespräch' zu protokollieren und etwas zu kommentieren. Ich habe dabei einen leichten Duktus gewählt, nicht etwa um mich über Antworten oder die Software lustig zu machen, sondern um zur Lektüre eines Prüfungsprotokolls einzuladen.
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2023, H.2, S.102-103
  12. Gruber, A.: Vom Knüpfen feministischer Begriffsnetze : Ariadnes Faden & geschlechtersensible Normdaten (2022) 0.02
    0.015075105 = product of:
      0.09045063 = sum of:
        0.018660503 = weight(_text_:und in 577) [ClassicSimilarity], result of:
          0.018660503 = score(doc=577,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38329202 = fieldWeight in 577, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.022566179 = weight(_text_:des in 577) [ClassicSimilarity], result of:
          0.022566179 = score(doc=577,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.3709667 = fieldWeight in 577, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.030563444 = weight(_text_:der in 577) [ClassicSimilarity], result of:
          0.030563444 = score(doc=577,freq=26.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.6228917 = fieldWeight in 577, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.018660503 = weight(_text_:und in 577) [ClassicSimilarity], result of:
          0.018660503 = score(doc=577,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38329202 = fieldWeight in 577, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
      0.16666667 = coord(4/24)
    
    Abstract
    Feministische Thesauri sind Begriffsnetze der Frauen*- und Geschlechterforschung, die in der bibliothekarischen Praxis jene Lücken schließen, die konventionelle Normdateien bei der Sacherschließung relevanter Literatur hinterlassen. Mit thesaurA wurde Mitte der 1990er Jahren der erste kooperative frauen*spezifische Fachthesaurus Österreichs erstellt. Der SAR-Index der Ariadne, der Frauen*- und Geschlechterdokumentationsstelle der Österreichischen Nationalbibliothek (ÖNB), ist eine lokale Weiterentwicklung. Ein Wechsel des Bibliothekssystems an der ÖNB macht eine Migration des Vokabulars erforderlich. Der Beitrag beleuchtet das Migrationsprojekt im Kontext feministischer Beschlagwortung und entwickelt Überlegungen zu kooperativen Thesaurus-Projekten weiter, die unabhängig der fachlichen Ausrichtung Relevanz entfalten können.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 75(2022) H.1, S.262-288
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  13. Moegling, K.: Digitale Imperien und die mediale Transformation des Humanen (2021) 0.01
    0.01488219 = product of:
      0.08929314 = sum of:
        0.023361778 = weight(_text_:und in 427) [ClassicSimilarity], result of:
          0.023361778 = score(doc=427,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 427, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=427)
        0.025789918 = weight(_text_:des in 427) [ClassicSimilarity], result of:
          0.025789918 = score(doc=427,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.42396194 = fieldWeight in 427, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=427)
        0.016779663 = weight(_text_:der in 427) [ClassicSimilarity], result of:
          0.016779663 = score(doc=427,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 427, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=427)
        0.023361778 = weight(_text_:und in 427) [ClassicSimilarity], result of:
          0.023361778 = score(doc=427,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 427, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=427)
      0.16666667 = coord(4/24)
    
    Abstract
    Die Forderung nach mehr Digitalisierung ist en vogue. Doch was bedeutet dieser Prozess für Mensch, Gesellschaft und Zukunft? (Teil 1). In jedem Parteiprogramm wird wie selbstverständlich die Digitalisierung der Verwaltung und der Wirtschaft gefordert. Doch Digitalisierung hat verschiedene Seiten. Vorteile hinsichtlich der Prozessschnelligkeit und Verarbeitungskapazität stehen bürgerrechtlich zu begründende Nachteile entgegen. Zu diskutieren ist des Weiteren, was unter dem Humanen in seiner Essenz zu verstehen ist und wie dies durch bestimmte Formen zukünftiger Digitalisierung gefährdet sein könnte.
    Source
    https://www.heise.de/tp/features/Digitale-Imperien-und-die-mediale-Transformation-des-Humanen-6254576.html?view=print
  14. Pintscher, L.; Bourgonje, P.; Moreno Schneider, J.; Ostendorff, M.; Rehm, G.: Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.01
    0.01472181 = product of:
      0.07066469 = sum of:
        0.0052291043 = product of:
          0.015687313 = sum of:
            0.015687313 = weight(_text_:p in 366) [ClassicSimilarity], result of:
              0.015687313 = score(doc=366,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19862589 = fieldWeight in 366, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=366)
          0.33333334 = coord(1/3)
        0.02064909 = weight(_text_:und in 366) [ClassicSimilarity], result of:
          0.02064909 = score(doc=366,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 366, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=366)
        0.009306135 = weight(_text_:des in 366) [ClassicSimilarity], result of:
          0.009306135 = score(doc=366,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.15298408 = fieldWeight in 366, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=366)
        0.014831265 = weight(_text_:der in 366) [ClassicSimilarity], result of:
          0.014831265 = score(doc=366,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.30226544 = fieldWeight in 366, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=366)
        0.02064909 = weight(_text_:und in 366) [ClassicSimilarity], result of:
          0.02064909 = score(doc=366,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 366, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=366)
      0.20833333 = coord(5/24)
    
    Abstract
    Wikidata ist eine freie Wissensbasis, die allgemeine Daten über die Welt zur Verfügung stellt. Sie wird von Wikimedia entwickelt und betrieben, wie auch das Schwesterprojekt Wikipedia. Die Daten in Wikidata werden von einer großen Community von Freiwilligen gesammelt und gepflegt, wobei die Daten sowie die zugrundeliegende Ontologie von vielen Projekten, Institutionen und Firmen als Basis für Applikationen und Visualisierungen, aber auch für das Training von maschinellen Lernverfahren genutzt werden. Wikidata nutzt MediaWiki und die Erweiterung Wikibase als technische Grundlage der kollaborativen Arbeit an einer Wissensbasis, die verlinkte offene Daten für Menschen und Maschinen zugänglich macht. Ende 2020 beschreibt Wikidata über 90 Millionen Entitäten unter Verwendung von über 8 000 Eigenschaften, womit insgesamt mehr als 1,15 Milliarden Aussagen über die beschriebenen Entitäten getroffen werden. Die Datenobjekte dieser Entitäten sind mit äquivalenten Einträgen in mehr als 5 500 externen Datenbanken, Katalogen und Webseiten verknüpft, was Wikidata zu einem der zentralen Knotenpunkte des Linked Data Web macht. Mehr als 11 500 aktiv Editierende tragen neue Daten in die Wissensbasis ein und pflegen sie. Diese sind in Wiki-Projekten organisiert, die jeweils bestimmte Themenbereiche oder Aufgabengebiete adressieren. Die Daten werden in mehr als der Hälfte der Inhaltsseiten in den Wikimedia-Projekten genutzt und unter anderem mehr als 6,5 Millionen Mal am Tag über den SPARQL-Endpoint abgefragt, um sie in externe Applikationen und Visualisierungen einzubinden.
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  15. Mühlbauer, P.: Pflicht zur Installation der Corona-App? (2020) 0.01
    0.014591597 = product of:
      0.07003967 = sum of:
        0.010458209 = product of:
          0.031374626 = sum of:
            0.031374626 = weight(_text_:p in 5989) [ClassicSimilarity], result of:
              0.031374626 = score(doc=5989,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.39725178 = fieldWeight in 5989, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5989)
          0.33333334 = coord(1/3)
        0.011921758 = weight(_text_:und in 5989) [ClassicSimilarity], result of:
          0.011921758 = score(doc=5989,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 5989, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5989)
        0.01861227 = weight(_text_:des in 5989) [ClassicSimilarity], result of:
          0.01861227 = score(doc=5989,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.30596817 = fieldWeight in 5989, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=5989)
        0.01712567 = weight(_text_:der in 5989) [ClassicSimilarity], result of:
          0.01712567 = score(doc=5989,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34902605 = fieldWeight in 5989, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5989)
        0.011921758 = weight(_text_:und in 5989) [ClassicSimilarity], result of:
          0.011921758 = score(doc=5989,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 5989, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5989)
      0.20833333 = coord(5/24)
    
    Abstract
    In CDU und RTL werden Stimmen laut, die Deutschen zur Nutzung des bislang 70 Millionen Euro teuren Instruments zu zwingen.
    Source
    https://www.heise.de/tp/features/Pflicht-zur-Installation-der-Corona-App-4948017.html?view=print
  16. Schoenbeck, O.; Schröter, M.; Werr, N.: Framework Informationskompetenz in der Hochschulbildung (2021) 0.01
    0.014458697 = product of:
      0.06940175 = sum of:
        0.014454362 = weight(_text_:und in 298) [ClassicSimilarity], result of:
          0.014454362 = score(doc=298,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 298, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=298)
        0.013028587 = weight(_text_:des in 298) [ClassicSimilarity], result of:
          0.013028587 = score(doc=298,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 298, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=298)
        0.016953548 = weight(_text_:der in 298) [ClassicSimilarity], result of:
          0.016953548 = score(doc=298,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34551817 = fieldWeight in 298, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=298)
        0.010510888 = product of:
          0.021021776 = sum of:
            0.021021776 = weight(_text_:29 in 298) [ClassicSimilarity], result of:
              0.021021776 = score(doc=298,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.27205724 = fieldWeight in 298, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=298)
          0.5 = coord(1/2)
        0.014454362 = weight(_text_:und in 298) [ClassicSimilarity], result of:
          0.014454362 = score(doc=298,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 298, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=298)
      0.20833333 = coord(5/24)
    
    Abstract
    Im Mittelpunkt dieses Beitrags steht das 2016 von der Association of College & Research Libraries (ACRL) veröffentlichte Framework for Information Literacy for Higher Education, dessen Kernideen und Entwicklung aus Vorläufern wie den 2000 von der ACRL publizierten Information Literacy Competency Standards for Higher Education heraus skizziert werden. Die Rezeptionsgeschichte dieser Standards im deutschen Sprachraum wird vor dem Hintergrund der Geschichte ihrer (partiellen) Übersetzung nachgezeichnet und hieraus das Potenzial abgeleitet, das die nun vorliegende vollständige Übersetzung des Framework ins Deutsche für eine zeitgemäße Förderung von Informationskompetenz bietet. Die vielfältigen Herausforderungen einer solchen Übersetzung werden durch Einblicke in die Übersetzungswerkstatt exemplarisch reflektiert.
    Editor
    Gemeinsame Kommission Informationskompetenz von dbv und VDB
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.2, S.1-29
  17. Lepsky, K.: Automatisches Indexieren (2023) 0.01
    0.014458697 = product of:
      0.06940175 = sum of:
        0.014454362 = weight(_text_:und in 781) [ClassicSimilarity], result of:
          0.014454362 = score(doc=781,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.013028587 = weight(_text_:des in 781) [ClassicSimilarity], result of:
          0.013028587 = score(doc=781,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 781, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.016953548 = weight(_text_:der in 781) [ClassicSimilarity], result of:
          0.016953548 = score(doc=781,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34551817 = fieldWeight in 781, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.010510888 = product of:
          0.021021776 = sum of:
            0.021021776 = weight(_text_:29 in 781) [ClassicSimilarity], result of:
              0.021021776 = score(doc=781,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.27205724 = fieldWeight in 781, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=781)
          0.5 = coord(1/2)
        0.014454362 = weight(_text_:und in 781) [ClassicSimilarity], result of:
          0.014454362 = score(doc=781,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
      0.20833333 = coord(5/24)
    
    Abstract
    Unter Indexierung versteht man die Zuordnung von inhaltskennzeichnenden Ausdrücken (Indextermen, Indexaten, Erschließungsmerkmalen) zu Dokumenten. Über die zugeteilten Indexterme soll ein gezieltes Auffinden der Dokumente ermöglicht werden. Indexterme können inhaltsbeschreibende Merkmale wie Notationen, Deskriptoren, kontrollierte oder freie Schlagwörter sein; es kann sich auch um reine Stichwörter handeln, die aus dem Text des Dokuments gewonnen werden. Eine Indexierung kann intellektuell, computerunterstützt oder automatisch erfolgen. Computerunterstützte Indexierungsverfahren kombinieren die intellektuelle Indexierung mit automatischen Vorarbeiten. Bei der automatischen Indexierung werden die Indexterme automatisch aus dem Dokumenttext ermittelt und dem Dokument zugeordnet. Automatische Indexierung bedient sich für die Verarbeitung der Zeichenketten im Dokument linguistischer und statistischer Verfahren.
    Date
    24.11.2022 13:29:16
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  18. Wittwer, B.: Von NEBIS zu SLSP : wie die Datenmigration des grössten Schweizer Verbundes umgesetzt wurde (2021) 0.01
    0.0144534465 = product of:
      0.06937654 = sum of:
        0.015994716 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.015994716 = score(doc=537,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.015793033 = weight(_text_:des in 537) [ClassicSimilarity], result of:
          0.015793033 = score(doc=537,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 537, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.012584748 = weight(_text_:der in 537) [ClassicSimilarity], result of:
          0.012584748 = score(doc=537,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.25648075 = fieldWeight in 537, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.009009332 = product of:
          0.018018665 = sum of:
            0.018018665 = weight(_text_:29 in 537) [ClassicSimilarity], result of:
              0.018018665 = score(doc=537,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23319192 = fieldWeight in 537, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=537)
          0.5 = coord(1/2)
        0.015994716 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.015994716 = score(doc=537,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
      0.20833333 = coord(5/24)
    
    Abstract
    Am 7. Dezember 2020 begann mit swisscovery für das Schweizer Bibliothekswesen eine neue Ära. Die sechs grossen Bibliotheksverbünde fusionierten zu einer einzigen Plattform, der Swiss Library Service Plattform (SLSP). Damit einhergehend wurde mit Ex Libris Alma auch ein neues Bibliothekssystem eingeführt und Aleph und SFX abgelöst. Für den NEBIS-Verbund, ehemals grösster Bibliotheksverbund in der Schweiz, bedeutete dies, die Datenmigration zu organisieren und die NEBIS-Bibliotheken beim Wechsel zu SLSP zu begleiten. Ein Wechsel des Bibliothekssystems ist immer mit vielfältigen Herausforderungen und Unwägbarkeiten verbunden. Welche konzeptuellen Überlegungen sich die NEBIS-Systemverantwortlichen bezüglich der Datenmigration gemacht haben und wie die unzähligen Bereinigungen priorisiert wurden, wird nebst den Lessons Learned im Folgenden aufgezeigt.
    Date
    29. 9.2021 14:01:02
  19. Wiegmann, S.: Hättest du die Titanic überlebt? : Eine kurze Einführung in das Data Mining mit freier Software (2023) 0.01
    0.014355909 = product of:
      0.06890836 = sum of:
        0.016690461 = weight(_text_:und in 876) [ClassicSimilarity], result of:
          0.016690461 = score(doc=876,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 876, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=876)
        0.013028587 = weight(_text_:des in 876) [ClassicSimilarity], result of:
          0.013028587 = score(doc=876,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=876)
        0.011987969 = weight(_text_:der in 876) [ClassicSimilarity], result of:
          0.011987969 = score(doc=876,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.24431825 = fieldWeight in 876, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=876)
        0.010510888 = product of:
          0.021021776 = sum of:
            0.021021776 = weight(_text_:29 in 876) [ClassicSimilarity], result of:
              0.021021776 = score(doc=876,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.27205724 = fieldWeight in 876, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=876)
          0.5 = coord(1/2)
        0.016690461 = weight(_text_:und in 876) [ClassicSimilarity], result of:
          0.016690461 = score(doc=876,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 876, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=876)
      0.20833333 = coord(5/24)
    
    Abstract
    Am 10. April 1912 ging Elisabeth Walton Allen an Bord der "Titanic", um ihr Hab und Gut nach England zu holen. Eines Nachts wurde sie von ihrer aufgelösten Tante geweckt, deren Kajüte unter Wasser stand. Wie steht es um Elisabeths Chancen und hätte man selbst das Unglück damals überlebt? Das Titanic-Orakel ist eine algorithmusbasierte App, die entsprechende Prognosen aufstellt und im Rahmen des Kurses "Data Science" am Department Information der HAW Hamburg entstanden ist. Dieser Beitrag zeigt Schritt für Schritt, wie die App unter Verwendung freier Software entwickelt wurde. Code und Daten werden zur Nachnutzung bereitgestellt.
    Date
    28. 1.2022 11:05:29
  20. Colombi, C.: Bibliothekarische Fachsystematiken am Deutschen Archäologischen Institut : 180 Jahre Wissensordnung (2023) 0.01
    0.014352373 = product of:
      0.086114235 = sum of:
        0.020441556 = weight(_text_:und in 999) [ClassicSimilarity], result of:
          0.020441556 = score(doc=999,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 999, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=999)
        0.018425206 = weight(_text_:des in 999) [ClassicSimilarity], result of:
          0.018425206 = score(doc=999,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 999, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=999)
        0.026805915 = weight(_text_:der in 999) [ClassicSimilarity], result of:
          0.026805915 = score(doc=999,freq=20.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5463122 = fieldWeight in 999, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=999)
        0.020441556 = weight(_text_:und in 999) [ClassicSimilarity], result of:
          0.020441556 = score(doc=999,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 999, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=999)
      0.16666667 = coord(4/24)
    
    Abstract
    Seit 1836 werden bibliothekarische Titel an der Abteilung Rom des Deutschen Archäologischen Instituts inhaltlich erschlossen. Die hierfür entwickelten Systematiken zeugen von der Entstehung der Klassischen Archäologie als Disziplin und von der Geschichte der bibliothekarischen Klassifikation. Die systematischen Kataloge und die Fachbibliographien des Deutschen Archäologischen Instituts werden vorgestellt und ihre Entstehung kontextualisiert. Die Unterschiede zwischen den einzelnen Katalogen und den Bibliographien dienen als Ausgangspunkt, um die Anpassungsstrategien der Klassifikation an die Fortschritte der Forschung und der Technologie zu untersuchen. Der Abgleich mit dem Publikationsaufkommen ermöglicht zudem Bemerkungen zu den Änderungen in der Systematik.
    Source
    Information - Wissenschaft und Praxis. 74(2023) H.2/3, S.172-178

Languages

  • d 346
  • e 235
  • pt 3
  • More… Less…

Types

  • el 183
  • p 2
  • More… Less…