Search (130 results, page 1 of 7)

  • × type_ss:"el"
  • × language_ss:"d"
  1. Schönherr, M.: Bestechend brillant : die Schönheit der Algorithmen (2016) 0.10
    0.09847309 = product of:
      0.19694617 = sum of:
        0.19694617 = sum of:
          0.12746806 = weight(_text_:probleme in 2762) [ClassicSimilarity], result of:
            0.12746806 = score(doc=2762,freq=2.0), product of:
              0.24323422 = queryWeight, product of:
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.05128058 = queryNorm
              0.5240548 = fieldWeight in 2762, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.078125 = fieldNorm(doc=2762)
          0.06947811 = weight(_text_:22 in 2762) [ClassicSimilarity], result of:
            0.06947811 = score(doc=2762,freq=2.0), product of:
              0.17957586 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05128058 = queryNorm
              0.38690117 = fieldWeight in 2762, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=2762)
      0.5 = coord(1/2)
    
    Abstract
    Algorithmen sind Rezepte, aus denen Computerprogramme entstehen. Es gibt keine Software ohne Algorithmen. Je eleganter ein Algorithmus ist, desto weniger Rechenpower benötigt er, um zum Ziel zu kommen. Algorithmen können allerdings teuer sein - und die Nachfrage zur Lösung neuer und alter Probleme ist riesig.
    Date
    10. 2.2016 17:22:23
  2. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.08
    0.078778476 = product of:
      0.15755695 = sum of:
        0.15755695 = sum of:
          0.10197446 = weight(_text_:probleme in 4427) [ClassicSimilarity], result of:
            0.10197446 = score(doc=4427,freq=2.0), product of:
              0.24323422 = queryWeight, product of:
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.05128058 = queryNorm
              0.41924387 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
          0.055582486 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
            0.055582486 = score(doc=4427,freq=2.0), product of:
              0.17957586 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05128058 = queryNorm
              0.30952093 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
      0.5 = coord(1/2)
    
    Abstract
    Künstliche Intelligenz kann lernen anhand von Erfahrungen und Vorgaben. Das Problem ist aber, dass sich maschinelles Lernen zwar in eine bestimmte Richtung steuern lässt, um bestimmte Probleme zu lösen, dass aber der Programmierer mitunter nicht mehr weiß, was in dem "künstlichen Gehirn" bzw. dem neuronalen Netzwerk vor sich geht, das mit zunehmender Komplexität und Lernerfahrung für den Menschen zur Black Box wird, wo man nur sehen kann, was an Daten einfließt und was herauskommt.
    Date
    22. 1.2018 11:08:27
  3. Galinski, C.: Fragen der semantischen Interoperabilität brechen jetzt überall auf (o.J.) 0.06
    0.059083853 = product of:
      0.118167706 = sum of:
        0.118167706 = sum of:
          0.07648084 = weight(_text_:probleme in 4183) [ClassicSimilarity], result of:
            0.07648084 = score(doc=4183,freq=2.0), product of:
              0.24323422 = queryWeight, product of:
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.05128058 = queryNorm
              0.31443292 = fieldWeight in 4183, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
          0.041686863 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
            0.041686863 = score(doc=4183,freq=2.0), product of:
              0.17957586 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05128058 = queryNorm
              0.23214069 = fieldWeight in 4183, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
      0.5 = coord(1/2)
    
    Abstract
    Terminologienormung ist eine Grundbedingung für internationalen Handel und birgt große Einsparungspotenziale in der industriellen Produktion. Tassilo Pellegrini sprach mit Dr. Christian Galinski, Leiter des Internationalen Informationszentrums für Terminologie (Infoterm), über Probleme der Mehrsprachigkeit, di Wechselwirkung zwischen Technik und Terminologie und wie durch semantische Interoperabilität die Schnittstelle Mensch-Maschine verbessert werden kann.
    Date
    22. 1.2011 10:16:32
  4. Christophersen, H.: Alphabetisierung auf Computer : Prinzipien, Probleme und eine Lösungsverbesserung 0.05
    0.05098723 = product of:
      0.10197446 = sum of:
        0.10197446 = product of:
          0.20394892 = sum of:
            0.20394892 = weight(_text_:probleme in 2194) [ClassicSimilarity], result of:
              0.20394892 = score(doc=2194,freq=8.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.83848774 = fieldWeight in 2194, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2194)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In diesem Artikel werde ich einige Probleme der rechnergestützten Alphabetisierung beschreiben, die aufkommen, wenn die zu sortierenden Zeichenfolgen nationale Sonderzeichen beinhalten. Die von mir untersuchten kommerziellen Softwareprogramme sind alle unzulänglich, indem die jeweiligen länderspezifischen lexikographischen Alphabetisierungsregeln nicht ausreichend - wenn überhaupt - berücksichtigt sind, was unbefriedigend ist. Nach der Beschreibung von Alphabetisierungsprinzipien und einer Darstellung einiger der im Computerbereich zu bewältigenden Probleme lege ich meinen Vorschlag zu einem Algorithmus vor, der möglichst viele der lösbaren Probleme berücksichtigen sollte. Ich habe aus Rücksicht auf Sprachwissenschaftler ohne größere Programmierkenntnisse versucht, einen großen Teil meiner Darstellung allgemein verständlich zu halten, und habe die schwierigsten computertechnischen Beschreibungen zuletzt kommen lassen.
  5. Schaefer, K.: ddc.deutsch - 590. Tiere : Mitarbeit im Expertenpool (2005) 0.04
    0.04415624 = product of:
      0.08831248 = sum of:
        0.08831248 = product of:
          0.17662495 = sum of:
            0.17662495 = weight(_text_:probleme in 3574) [ClassicSimilarity], result of:
              0.17662495 = score(doc=3574,freq=6.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.72615176 = fieldWeight in 3574, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3574)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bei dieser Projektarbeit handelt es sich um die fachliche Betreuung der ersten deutschen Übersetzung der DDCKlasse 590 Tiere. Diese Klasse umfasst die Zoologie (Naturgeschichte, Biologie, Ökologie, Ethologie, Tiergruppen, einzelne Arten). Nutztiere, Tierhaltung, Jagd und Veterinärmedizin werden von anderen Klassen abgedeckt. Fachbegriffe und Tiernamen (wissenschaftliche Namen, umgangssprachliche Namen) werfen bei der Übersetzung oft Probleme auf, die von Übersetzern allein nicht gelöst werden können. Hauptaufgabe war es, für diese Probleme fachlich fundierte Lösungen vorzulegen. Die Hintergründe der Probleme werden hier näher dargestellt und anhand einiger Beispiele verdeutlicht.
  6. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.03
    0.033936314 = product of:
      0.06787263 = sum of:
        0.06787263 = product of:
          0.20361789 = sum of:
            0.20361789 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.20361789 = score(doc=4388,freq=2.0), product of:
                0.43475732 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05128058 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  7. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.03
    0.033936314 = product of:
      0.06787263 = sum of:
        0.06787263 = product of:
          0.20361789 = sum of:
            0.20361789 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.20361789 = score(doc=5669,freq=2.0), product of:
                0.43475732 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05128058 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  8. Plochberger, F.: Neues Paradigma in der Informationswissenschaft : wissenschaftlicher Ansatz, um die Informationstechnologie für den Menschen erfreulicher zu gestalten (2011) 0.03
    0.031867016 = product of:
      0.06373403 = sum of:
        0.06373403 = product of:
          0.12746806 = sum of:
            0.12746806 = weight(_text_:probleme in 7265) [ClassicSimilarity], result of:
              0.12746806 = score(doc=7265,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.5240548 = fieldWeight in 7265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.078125 = fieldNorm(doc=7265)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Probleme in der Art der Argumentation: Er schreibt: "Der Begriff Wissen wird so eindeutig: Es sind die lebenden Daten im Menschen (Lebewesen)" (6.4) und meint (vielleicht ?): Es sind die Daten im lebenden Menschen.
  9. Svensson, L.: Panta rei : die Versionierung der DDC - Probleme, Anforderungen und mögliche Lösungen (2010) 0.03
    0.031867016 = product of:
      0.06373403 = sum of:
        0.06373403 = product of:
          0.12746806 = sum of:
            0.12746806 = weight(_text_:probleme in 2340) [ClassicSimilarity], result of:
              0.12746806 = score(doc=2340,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.5240548 = fieldWeight in 2340, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2340)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  10. Umstätter, W.: Zukunft der Informationswissenschaft : Vom Information Retrieval zur Wissensorganisation (2017) 0.03
    0.031867016 = product of:
      0.06373403 = sum of:
        0.06373403 = product of:
          0.12746806 = sum of:
            0.12746806 = weight(_text_:probleme in 3889) [ClassicSimilarity], result of:
              0.12746806 = score(doc=3889,freq=8.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.5240548 = fieldWeight in 3889, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3889)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Fortsetzung der Beiträge von Bredemeier, Stock, Schlögl in Open Password im Anschluss an die ISI-Tagung 2017. "Immer schon war es Aufgabe der Wissenschaft, aus ihren neusten Erkenntnissen heraus auch Anregungen für die Praxis zu geben. Trotzdem ist es ein großer Unterschied, ob jemand als Informationswissenschaftler seine Arbeitszeit und seine gesamte Kraft für das Gewinnen neuer Erkenntnisse einsetzt oder ob ein Informationsspezialist seine Informationskompetenz an Endnutzer vermarktet. Es gibt in der Szientometrie Hinweise, dass man Wissenschaft nur sehr schwer beschleunigen bzw. abbremsen kann. Bei Zusatzgeldern zur Beschleunigung wachsen die neu auftauchenden Probleme exponentiell an, und bei Sparmaßnahmen werden die bereits vorhandenen Probleme so erdrückend, dass Wirtschaft und Politik gezwungen werden, wieder in die Wissenschaft zu investieren. Das gilt auch für die Zukunft der Informationswissenschaft, die sozusagen autokatalytisch ihre anstehenden Probleme bewältigen muss. Wissenschaftler müssen allerdings oft etliche Irrwege gehen, bis sie die richtige Chreode, wie das in der Epigenese genannt wird, finden. Dabei streiten nicht nur die Wissenschaftler über die richtigen Ansätze zur Lösung anstehender Probleme, sondern auch die praxisorientierten Information Professionals sind verständlicherweise über die einander widersprechenden Argumentationen unter Informationswissenschaftlern irritiert. Es sei hier nur an die Definition Rainer Kuhlens "Information ist Wissen in Aktion" erinnert, der sich auch Christian Schlögl und Wolfgang G. Stock anschließen. Dem kann man sich allerdings nicht anschließen, wenn man Information nicht als Teilmenge von Wissen versteht."
  11. Lobe, A.: Demokratie als Risikofaktor (2019) 0.03
    0.031867016 = product of:
      0.06373403 = sum of:
        0.06373403 = product of:
          0.12746806 = sum of:
            0.12746806 = weight(_text_:probleme in 4594) [ClassicSimilarity], result of:
              0.12746806 = score(doc=4594,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.5240548 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4594)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die jüngsten Fortschritte haben es für Regierungsbehörden möglich gemacht, Probleme zu antizipieren und vorherzusagen, anstatt auf sie zu reagieren: unter anderem durchGesichtserkennung
  12. Rötzer, F.: Droht bei einer Verschmelzung des Gehirns mit KI der Verlust des Bewusstseins? (2020) 0.03
    0.031867016 = product of:
      0.06373403 = sum of:
        0.06373403 = product of:
          0.12746806 = sum of:
            0.12746806 = weight(_text_:probleme in 5699) [ClassicSimilarity], result of:
              0.12746806 = score(doc=5699,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.5240548 = fieldWeight in 5699, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5699)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Philosophin und Kognitionswissenschaftlerin Susan Schneider führt ungelöste Probleme für die Implantation von Chips im Gehirn zur kognitiven Optimierung an.
  13. Pany, T.: KI: Wenn echte Fotos als gefälscht gebrandmarkt werden (2023) 0.03
    0.031867016 = product of:
      0.06373403 = sum of:
        0.06373403 = product of:
          0.12746806 = sum of:
            0.12746806 = weight(_text_:probleme in 1066) [ClassicSimilarity], result of:
              0.12746806 = score(doc=1066,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.5240548 = fieldWeight in 1066, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1066)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Propaganda und Manipulation: Mediennutzer vor dem nächsten Schwierigkeitsgrad. Der Vorwurf einer Fälschung kann politisch jedes beliebige Argument unterstützen. Technische Analysen lösen nicht alle Probleme.
  14. Perske, J.: Trendforscher Horx : Künstliche Intelligenz wird überschätzt (2018) 0.03
    0.031546738 = product of:
      0.063093476 = sum of:
        0.063093476 = product of:
          0.12618695 = sum of:
            0.12618695 = weight(_text_:probleme in 219) [ClassicSimilarity], result of:
              0.12618695 = score(doc=219,freq=4.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.51878786 = fieldWeight in 219, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=219)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Hype um autonomes Fahren und KI schaffe gefährliche Illusionen, glaubt Horx. "Digitale Ehrlichkeit" gestehe ein, dass Computer keine realen Probleme lösten. Der Trend- und Zukunftsforscher Matthias Horx hält das Thema Künstliche Intelligenz für ziemlich überschätzt. Es sei "eine Art Fetisch geworden - ein Hype, der gefährliche Illusionen schafft", sagte der Soziologe und Leiter des Zukunftsinstituts in Frankfurt am Main in einem Interview der Deutschen Presse-Agentur. "Die meisten realen Probleme sind viel zu komplex und "lebendig", als dass sie von Datensystemen gelöst werden können." Das gelte auch fürs autonome Fahren. Es sei Zeit für eine "digitale Ehrlichkeit": "Computer und Roboter können weder die Pflege regeln, noch Armut mildern, noch den Verkehr entstauen. Dazu brauchen wir intelligentere soziale, humane Systeme."
  15. Foerster, H. von; Müller, A.; Müller, K.H.: Rück- und Vorschauen : Heinz von Foerster im Gespräch mit Albert Müller und Karl H. Müller (2001) 0.03
    0.029541926 = product of:
      0.059083853 = sum of:
        0.059083853 = sum of:
          0.03824042 = weight(_text_:probleme in 5988) [ClassicSimilarity], result of:
            0.03824042 = score(doc=5988,freq=2.0), product of:
              0.24323422 = queryWeight, product of:
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.05128058 = queryNorm
              0.15721646 = fieldWeight in 5988, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.0234375 = fieldNorm(doc=5988)
          0.020843431 = weight(_text_:22 in 5988) [ClassicSimilarity], result of:
            0.020843431 = score(doc=5988,freq=2.0), product of:
              0.17957586 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05128058 = queryNorm
              0.116070345 = fieldWeight in 5988, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=5988)
      0.5 = coord(1/2)
    
    Content
    Da braucht also der Mensch, der sich dafür interessiert, solche Antworten zu finden, nicht erst indirekt über den Karl Müller, den er auf irgendeiner Karteikarte findet, dort hineinzugehen, sondern durch direktes Ansprechen der semantischen Struktur seines Problems, sich mit der semantischen Struktur des Systems in Verbindung setzen, das mir dann weiterhilft in diejenigen Bereiche zu gehen, in denen ich dann vielleicht Antworten für meine Probleme finde. Also mit solchen und ähnlichen Gedanken haben wir uns beschäftigt, und Paul Weston hat hervorragende Arbeiten dazu geschrieben, der hat durch diese Sache durchgeschaut. Der Projektvorschlag, den ich heute noch habe, für dieses unerhörte Riesenprojekt, das waren mehrere Millionen Dollar, wurde überhaupt nicht verstanden. Das brauchen wir nicht, wir haben ja die Bücher, wir haben ja die Karteikarten. Da waren eben Schwierigkeiten, wo mir meine Freunde richtig vorwerfen, Heinz, du hast unseren Fall nicht richtig vorgetragen, sodaß die Leute, die imstande gewesen wären, uns finanziell zu unterstützen, nicht verstanden haben, wovon du redest. Trotz meiner intensiven Bemühungen ist es in vielen Fällen nicht gelungen, eine Überzeugung, ein Verständnis zu erreichen. Mein Gefühl damals war, daß das Verständnis einfach blockiert war, weil schon bestimmte Verständnisdirektionen so festgefroren waren. Um etwas zu erreichen, hätte man viel mehr Zeit gebraucht und vielmehr miteinander sprechen sollen, um ein Verständnis durchzusetzen.
    Date
    10. 9.2006 17:22:54
  16. Ask me[@sk.me]: your global information guide : der Wegweiser durch die Informationswelten (1996) 0.03
    0.027791243 = product of:
      0.055582486 = sum of:
        0.055582486 = product of:
          0.11116497 = sum of:
            0.11116497 = weight(_text_:22 in 5837) [ClassicSimilarity], result of:
              0.11116497 = score(doc=5837,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.61904186 = fieldWeight in 5837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5837)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    30.11.1996 13:22:37
  17. Kosmos Weltatlas 2000 : Der Kompass für das 21. Jahrhundert. Inklusive Welt-Routenplaner (1999) 0.03
    0.027791243 = product of:
      0.055582486 = sum of:
        0.055582486 = product of:
          0.11116497 = sum of:
            0.11116497 = weight(_text_:22 in 4085) [ClassicSimilarity], result of:
              0.11116497 = score(doc=4085,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.61904186 = fieldWeight in 4085, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4085)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    7.11.1999 18:22:39
  18. Gödert, W.: Schnittstelle von Wissen zwischen Institution und Nutzer (2001) 0.03
    0.027040062 = product of:
      0.054080125 = sum of:
        0.054080125 = product of:
          0.10816025 = sum of:
            0.10816025 = weight(_text_:probleme in 3775) [ClassicSimilarity], result of:
              0.10816025 = score(doc=3775,freq=4.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.4446753 = fieldWeight in 3775, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3775)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In dieser Expertise werden ausgehend von Rahmenbedingungen, die sich aus dem Verständnis von Wissen, Information und Lernen sowie der Diskussion um die Entwicklung unserer Gesellschaft zu einer Informations- oder Wissensgesellschaft ergeben, die Eigenschaften von Wissens-Schnittstellen zwischen Institution und Benutzer aufgezeigt. Es werden Möglichkeiten zur Gestaltung diskutiert, die die Retrievalwerkzeuge, Verfahren zur semantischen Navigation und Probleme verteilter Datenbanken betreffen. Anhand der inhaltlichen Komponenten, aus denen eine Schnittstelle aufgebaut sein kann, werden Möglichkeiten zur eigenen Positionierung aufgezeigt. Probleme der technischen Realisierung werden kurz gestreift. Abschließend werden einige Beispiele vorgestellt. Abgerundet wird die Darstellung durch ein Literaturverzeichnis
  19. Harbeck, M.; Imeri, S.; Sterzer, W.: Feldnotizen und Videomitschnitte : zum Forschungsdatenmanagement qualitativer Daten am Beispiel der ethnologischen Fächer (2018) 0.03
    0.027040062 = product of:
      0.054080125 = sum of:
        0.054080125 = product of:
          0.10816025 = sum of:
            0.10816025 = weight(_text_:probleme in 4355) [ClassicSimilarity], result of:
              0.10816025 = score(doc=4355,freq=4.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.4446753 = fieldWeight in 4355, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4355)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Sollen Daten aus qualitativer (Sozial-)Forschung dauerhaft archiviert und für die Nachnutzung zur Verfügung gestellt werden, dann entstehen erhebliche Probleme: Solche Daten sind kaum standardisiert und liegen in heterogenen Formaten vor, sie sind meist hoch sensibel und benötigen besondere Schutzmechanismen. Der Beitrag thematisiert das Forschungsdatenmanagement qualitativer Daten am Beispiel ethnografischer Forschung aus unterschiedlichen Perspektiven: Er bietet erstens Einblicke in die Positionen von Ethnologinnen und Ethnologen und skizziert fachspezifische Probleme und stellt zweitens vor, welche infrastrukturellen Lösungen für ähnlich gelagerte Schwierigkeiten bereits existieren. Grundlage sind Erhebungen, die im Rahmen des Fachinformationsdienstes Sozial- und Kulturanthropologie an der Universitätsbibliothek der Humboldt-Universität zu Berlin einerseits den aktuellen Stand des Umgangs mit Forschungsdaten und andererseits Bedingungen und Lösungen für die Überführung ethnografischer Materialien in digitale Langzeitarchive eruieren.
  20. Kunz, M.: Weiterentwicklung der SWD (1997) 0.03
    0.025493614 = product of:
      0.05098723 = sum of:
        0.05098723 = product of:
          0.10197446 = sum of:
            0.10197446 = weight(_text_:probleme in 413) [ClassicSimilarity], result of:
              0.10197446 = score(doc=413,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.41924387 = fieldWeight in 413, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0625 = fieldNorm(doc=413)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im Hinblick auf den erreichten Umfang der SWD und ihre Funktion in elektronischen Katalogen werden Überlegungen zur strukturellen Anpassung der SWD diskutiert. Diese Überlegungen sollen nicht als Aufforderung zur grundsätzlichen Überarbeitung der SWD verstanden werden, sie sollen jedoch dazu beitragen, daß die SWD als Hilfsmittel bei der Literaturrecherche sinnvoll eingesetzt werden kann. Dabei sind folgende Bereiche angesprochen: (1) Allgemeine Probleme in einem universellen Vokabular; (2) Disambiguierung; (3) Verhältnis Zugangssprache - Indexierungssprache; (4) Berücksichtigung fremdsprachiger Äquivalente und Problemen der Weiterentwicklung der SWD zu einer multilingualen Normdatei; (5) Relationierung; (6) Strukturierung nach art der Schlagwortkategorien; (7) Systematisierung; (8) Codierung

Years

Types

  • a 63
  • i 10
  • m 5
  • r 4
  • b 1
  • s 1
  • x 1
  • More… Less…