Search (676 results, page 1 of 34)

  • × year_i:[2010 TO 2020}
  1. Vlaeminck, S.; Wagner, G.G.: Ergebnisse einer Befragung von wissenschaftlichen Infrastrukturdienstleistern im Bereich der Sozial- und Wirtschaftswissenschaften : Zur Rolle von Forschungsdatenzentren beim Management von publikationsbezogenen Forschungsdaten (2014) 0.13
    0.12914515 = product of:
      0.1937177 = sum of:
        0.17166951 = weight(_text_:desktop in 2543) [ClassicSimilarity], result of:
          0.17166951 = score(doc=2543,freq=2.0), product of:
            0.32125512 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0464954 = queryNorm
            0.5343713 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2543)
        0.022048196 = product of:
          0.04409639 = sum of:
            0.04409639 = weight(_text_:22 in 2543) [ClassicSimilarity], result of:
              0.04409639 = score(doc=2543,freq=2.0), product of:
                0.16281897 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0464954 = queryNorm
                0.2708308 = fieldWeight in 2543, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2543)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Im vorliegenden Beitrag werden die Ergebnisse einer Analyse zusammengefasst, in der untersucht wurde, ob, und wenn ja welche Services für das Management von publikationsbezogenen Forschungsdaten gegenwärtig bei wissenschaftlichen Infrastrukturdienstleistern in den Sozial- und Wirtschaftswissenschaften bestehen. Die Analyse wurde Mithilfe von Desktop-Research sowie einer Online-Befragung, an der sich 22 von 46 angeschriebenen Institutionen beteiligten, durchgeführt. Untersucht wurden vor allem deutsche und europäische Forschungsdatenzentren, Bibliotheken und Archive. Insbesondere wurde untersucht, ob diese Organisationen extern erzeugte Forschungsdaten, den dazugehörigen Berechnungscode (Syntax) und ggf. genutzte (selbstgeschriebene) Software grundsätzlich speichern und hosten. Weitere Themenfelder waren Metadatenstandards, Persistente Identifikatoren, Verfügbarkeit von Schnittstellen (APIs) und Unterstützung von semantischen Technologien.
  2. Sachse, J.: ¬The influence of snippet length on user behavior in mobile web search (2019) 0.09
    0.09224653 = product of:
      0.1383698 = sum of:
        0.12262109 = weight(_text_:desktop in 5493) [ClassicSimilarity], result of:
          0.12262109 = score(doc=5493,freq=2.0), product of:
            0.32125512 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0464954 = queryNorm
            0.3816938 = fieldWeight in 5493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5493)
        0.015748713 = product of:
          0.031497426 = sum of:
            0.031497426 = weight(_text_:22 in 5493) [ClassicSimilarity], result of:
              0.031497426 = score(doc=5493,freq=2.0), product of:
                0.16281897 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0464954 = queryNorm
                0.19345059 = fieldWeight in 5493, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5493)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Purpose Web search is more and more moving into mobile contexts. However, screen size of mobile devices is limited and search engine result pages face a trade-off between offering informative snippets and optimal use of space. One factor clearly influencing this trade-off is snippet length. The purpose of this paper is to find out what snippet size to use in mobile web search. Design/methodology/approach For this purpose, an eye-tracking experiment was conducted showing participants search interfaces with snippets of one, three or five lines on a mobile device to analyze 17 dependent variables. In total, 31 participants took part in the study. Each of the participants solved informational and navigational tasks. Findings Results indicate a strong influence of page fold on scrolling behavior and attention distribution across search results. Regardless of query type, short snippets seem to provide too little information about the result, so that search performance and subjective measures are negatively affected. Long snippets of five lines lead to better performance than medium snippets for navigational queries, but to worse performance for informational queries. Originality/value Although space in mobile search is limited, this study shows that longer snippets improve usability and user experience. It further emphasizes that page fold plays a stronger role in mobile than in desktop search for attention distribution.
    Date
    20. 1.2015 18:30:22
  3. RDA Toolkit (5 - Juni 2018) (2018) 0.07
    0.0676924 = product of:
      0.2030772 = sum of:
        0.2030772 = product of:
          0.4061544 = sum of:
            0.4061544 = weight(_text_:beta in 3993) [ClassicSimilarity], result of:
              0.4061544 = score(doc=3993,freq=6.0), product of:
                0.35121474 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0464954 = queryNorm
                1.1564275 = fieldWeight in 3993, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3993)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    "gestern Abend wurde die beta Version des neuen RDA-Toolkits<http://beta.rdatoolkit.org/rda.web/> veröffentlicht. Die Veröffentlichung der Beta-Site ist ein wichtiger Meilenstein innerhalb des RDA Toolkit Restructure and Redesign Project, bedeutet aber nicht den Abschluss des 3R-Projekts. Eine vollständige Beschreibung dessen, was auf der Beta-Site enthalten ist oder nicht, finden Sie im RDA-Info-Wiki<https://wiki.dnb.de/x/oQNXC>." [Inetbib vom 14.06.2018].
  4. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.06
    0.060071822 = product of:
      0.18021546 = sum of:
        0.18021546 = weight(_text_:desktop in 2133) [ClassicSimilarity], result of:
          0.18021546 = score(doc=2133,freq=12.0), product of:
            0.32125512 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0464954 = queryNorm
            0.56097305 = fieldWeight in 2133, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
      0.33333334 = coord(1/3)
    
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
  5. Savoy, J.: Estimating the probability of an authorship attribution (2016) 0.06
    0.05935192 = product of:
      0.17805576 = sum of:
        0.17805576 = sum of:
          0.14655833 = weight(_text_:beta in 2937) [ClassicSimilarity], result of:
            0.14655833 = score(doc=2937,freq=2.0), product of:
              0.35121474 = queryWeight, product of:
                7.5537524 = idf(docFreq=62, maxDocs=44218)
                0.0464954 = queryNorm
              0.4172898 = fieldWeight in 2937, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                7.5537524 = idf(docFreq=62, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2937)
          0.031497426 = weight(_text_:22 in 2937) [ClassicSimilarity], result of:
            0.031497426 = score(doc=2937,freq=2.0), product of:
              0.16281897 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0464954 = queryNorm
              0.19345059 = fieldWeight in 2937, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2937)
      0.33333334 = coord(1/3)
    
    Abstract
    In authorship attribution, various distance-based metrics have been proposed to determine the most probable author of a disputed text. In this paradigm, a distance is computed between each author profile and the query text. These values are then employed only to rank the possible authors. In this article, we analyze their distribution and show that we can model it as a mixture of 2 Beta distributions. Based on this finding, we demonstrate how we can derive a more accurate probability that the closest author is, in fact, the real author. To evaluate this approach, we have chosen 4 authorship attribution methods (Burrows' Delta, Kullback-Leibler divergence, Labbé's intertextual distance, and the naïve Bayes). As the first test collection, we have downloaded 224 State of the Union addresses (from 1790 to 2014) delivered by 41 U.S. presidents. The second test collection is formed by the Federalist Papers. The evaluations indicate that the accuracy rate of some authorship decisions can be improved. The suggested method can signal that the proposed assignment should be interpreted as possible, without strong certainty. Being able to quantify the certainty associated with an authorship decision can be a useful component when important decisions must be taken.
    Date
    7. 5.2016 21:22:27
  6. Jötten, F.: Auf der Suche nach der göttlichen Zahl : Wie ein Spielzeug einen Darmstädter Mathematiker ein Erwachsenenleben lang nicht mehr losließ (2010) 0.06
    0.05534792 = product of:
      0.08302188 = sum of:
        0.07357265 = weight(_text_:desktop in 3920) [ClassicSimilarity], result of:
          0.07357265 = score(doc=3920,freq=2.0), product of:
            0.32125512 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0464954 = queryNorm
            0.22901627 = fieldWeight in 3920, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3920)
        0.009449227 = product of:
          0.018898454 = sum of:
            0.018898454 = weight(_text_:22 in 3920) [ClassicSimilarity], result of:
              0.018898454 = score(doc=3920,freq=2.0), product of:
                0.16281897 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0464954 = queryNorm
                0.116070345 = fieldWeight in 3920, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3920)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    "Im Durchschnitt schafft das Programm das mit 19 Zügen", sagt Kociemba. Für Würfelfans ist das Programm essenziell, sie dankt dem Mathematiker frenetisch in Internetforen - die meisten Speedcuber, diejenigen, die den Würfel in möglichst kurzer Zeit lösen wollen, berechnen sich mit Cube Explorer die optimalen Drehkombinationen. "Aber eigentlich hat mich das zuletzt nicht mehr interessiert", sagt Kociemba. Gemeinsam mit dem kalifornischen Informatiker Tom Rokicki und dem Mathematiker Morley Davidson von der Kent State University in Ohio wollte er "Gottes Zahl" finden - den optimalen Weg mit möglichst wenigen Schritten um den Zauberwürfel zu lösen. Der Cube kann 43 Trillionen Positionen einnehmen. Für jede Stellung gibt es 18 Möglichkeiten für den ersten Zug - und dann wieder 18 für jeden folgenden. Wollte man die Gotteszahl so berechnen, dass man für jede Würfelstellung die optimalen Züge berechnet, müssten fünf Millionen Computer fünf Millionen Jahre lang rechnen - unmöglich. 1992 kam für Kociemba der erste Durchbruch bei der Suche nach der Gotteszahl. Er schrieb einen Zwei-Phasen-Algorithmus. Der Trick: Der Würfel wird aus einer beliebigen Anfangsstellung in maximal zwölf Zügen in eine Zwischenformation gebracht, das schränkt die Anzahl der verbleibenden Möglichkeiten auf 20 Milliarden ein, was Computer heute gut bewältigen. In einer zweiten Phase wird er dann in die Zielposition (alle Seiten des Würfels einfarbig) gebracht. Dazu braucht es höchstens 18 Drehungen, in der Summe sind also nach diesem Modell höchstens 30 notwendig. In den vergangenen 18 Jahren reduzierten die Forscher die Zahl. 2008 zeigte Rokicki, dass sie nicht größer als 25 sein kann. Er nutzte Kociembas Weg, unterteilte die Würfelpositionen aber in Gruppen, so dass er nicht jede einzeln berechnen musste. Dann fehlte ihm nur noch Rechnerleistung. Zunächst stellte Sony Pictures nachts die Computer zur Verfügung, auf denen sonst Trickfilme entstehen. Dann half Google mit seiner riesigen Rechner-Kapazität. Jetzt steht fest: Der Zauberwürfel kann, egal wie er verdreht ist, in 20 Zügen in die Zielposition gebracht werden. "Ein moderner Desktop-PC hätte für die Rechenarbeit 35 Jahre gebraucht", sagt Rokicki."
    Date
    17. 7.1996 9:33:22
  7. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.05
    0.04923135 = product of:
      0.14769405 = sum of:
        0.14769405 = product of:
          0.44308212 = sum of:
            0.44308212 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.44308212 = score(doc=973,freq=2.0), product of:
                0.39418852 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0464954 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  8. Aldosari, M.; Sanderson, M.; Tam, A.; Uitdenbogerd, A.L.: Understanding collaborative search for places of interest (2016) 0.05
    0.049048435 = product of:
      0.1471453 = sum of:
        0.1471453 = weight(_text_:desktop in 2840) [ClassicSimilarity], result of:
          0.1471453 = score(doc=2840,freq=2.0), product of:
            0.32125512 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0464954 = queryNorm
            0.45803255 = fieldWeight in 2840, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.046875 = fieldNorm(doc=2840)
      0.33333334 = coord(1/3)
    
    Abstract
    Finding a place of interest (e.g., a restaurant, hotel, or attraction) is often related to a group information need, however, the actual multiparty collaboration in such searches has not been explored, and little is known about its significance and related practices. We surveyed 100 computer science students and found that 94% (of respondents) searched for places online; 87% had done so as part of a group. Search for place by multiple active participants was experienced by 78%, with group sizes typically being 2 or 3. Search occurred in a range of settings with both desktop PCs and mobile devices. Difficulties were reported with coordinating tasks, sharing results, and making decisions. The results show that finding a place of interest is a quite different group-based search than other multiparty information-seeking activities. The results suggest that local search systems, their interfaces and the devices that access them can be made more usable for collaborative search if they include support for coordination, sharing of results, and decision making.
  9. Lima, G.A.B. de Oliveira: Conceptual modeling of hypertexts : methodological proposal for the management of semantic content in digital libraries (2012) 0.05
    0.049048435 = product of:
      0.1471453 = sum of:
        0.1471453 = weight(_text_:desktop in 451) [ClassicSimilarity], result of:
          0.1471453 = score(doc=451,freq=2.0), product of:
            0.32125512 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0464954 = queryNorm
            0.45803255 = fieldWeight in 451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.046875 = fieldNorm(doc=451)
      0.33333334 = coord(1/3)
    
    Abstract
    This research is focused on the continuation of the Hypertext Map prototype implementation - MHTX, proposed by Lima, (2004), with the general objective of transforming the MHTX into a semantic content management product facilitating navigation in context supported by customizable software that is easy to use, through high end desktop/web interfaces that sustain the operation of its functions. Besides, these studies aim, in the long run, to achieve the simplification of the information organization, access and recovery processes in digital libraries, making archive management by authors, content managers and information professionals possible.
  10. Campanario, J.M.: Distribution of ranks of articles and citations in journals (2010) 0.05
    0.04885278 = product of:
      0.14655833 = sum of:
        0.14655833 = product of:
          0.29311666 = sum of:
            0.29311666 = weight(_text_:beta in 3340) [ClassicSimilarity], result of:
              0.29311666 = score(doc=3340,freq=2.0), product of:
                0.35121474 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0464954 = queryNorm
                0.8345796 = fieldWeight in 3340, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3340)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    I studied the distribution of articles and citations in journals between 1998 and 2007 according to an empirical function with two exponents. These variables showed good fit to a beta function with two exponents.
  11. Schaalje, G.B.; Blades, N.J.; Funai, T.: ¬An open-set size-adjusted Bayesian classifier for authorship attribution (2013) 0.04
    0.041452955 = product of:
      0.12435886 = sum of:
        0.12435886 = product of:
          0.24871773 = sum of:
            0.24871773 = weight(_text_:beta in 1041) [ClassicSimilarity], result of:
              0.24871773 = score(doc=1041,freq=4.0), product of:
                0.35121474 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0464954 = queryNorm
                0.7081643 = fieldWeight in 1041, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1041)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Recent studies of authorship attribution have used machine-learning methods including regularized multinomial logistic regression, neural nets, support vector machines, and the nearest shrunken centroid classifier to identify likely authors of disputed texts. These methods are all limited by an inability to perform open-set classification and account for text and corpus size. We propose a customized Bayesian logit-normal-beta-binomial classification model for supervised authorship attribution. The model is based on the beta-binomial distribution with an explicit inverse relationship between extra-binomial variation and text size. The model internally estimates the relationship of extra-binomial variation to text size, and uses Markov Chain Monte Carlo (MCMC) to produce distributions of posterior authorship probabilities instead of point estimates. We illustrate the method by training the machine-learning methods as well as the open-set Bayesian classifier on undisputed papers of The Federalist, and testing the method on documents historically attributed to Alexander Hamilton, John Jay, and James Madison. The Bayesian classifier was the best classifier of these texts.
  12. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.04
    0.041026127 = product of:
      0.123078376 = sum of:
        0.123078376 = product of:
          0.36923513 = sum of:
            0.36923513 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.36923513 = score(doc=1826,freq=2.0), product of:
                0.39418852 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0464954 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  13. Reimer, Y.J.; Hagedal, M.; Wolf, P.; Bahls, B.: Turning the desktop inside-out : evaluating information access and management through a single interface (2011) 0.04
    0.0408737 = product of:
      0.12262109 = sum of:
        0.12262109 = weight(_text_:desktop in 4937) [ClassicSimilarity], result of:
          0.12262109 = score(doc=4937,freq=2.0), product of:
            0.32125512 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0464954 = queryNorm
            0.3816938 = fieldWeight in 4937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4937)
      0.33333334 = coord(1/3)
    
  14. Kim, J.; Thomas, P.; Sankaranarayana, R.; Gedeon, T.; Yoon, H.-J.: Eye-tracking analysis of user behavior and performance in web search on large and small screens (2015) 0.04
    0.0408737 = product of:
      0.12262109 = sum of:
        0.12262109 = weight(_text_:desktop in 1666) [ClassicSimilarity], result of:
          0.12262109 = score(doc=1666,freq=2.0), product of:
            0.32125512 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0464954 = queryNorm
            0.3816938 = fieldWeight in 1666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1666)
      0.33333334 = coord(1/3)
    
    Abstract
    In recent years, searching the web on mobile devices has become enormously popular. Because mobile devices have relatively small screens and show fewer search results, search behavior with mobile devices may be different from that with desktops or laptops. Therefore, examining these differences may suggest better, more efficient designs for mobile search engines. In this experiment, we use eye tracking to explore user behavior and performance. We analyze web searches with 2 task types on 2 differently sized screens: one for a desktop and the other for a mobile device. In addition, we examine the relationships between search performance and several search behaviors to allow further investigation of the differences engendered by the screens. We found that users have more difficulty extracting information from search results pages on the smaller screens, although they exhibit less eye movement as a result of an infrequent use of the scroll function. However, in terms of search performance, our findings suggest that there is no significant difference between the 2 screens in time spent on search results pages and the accuracy of finding answers. This suggests several possible ideas for the presentation design of search results pages on small devices.
  15. Kim, J.; Thomas, P.; Sankaranarayana, R.; Gedeon, T.; Yoon, H.-J.: Understanding eye movements on mobile devices for better presentation of search results (2016) 0.04
    0.0408737 = product of:
      0.12262109 = sum of:
        0.12262109 = weight(_text_:desktop in 3148) [ClassicSimilarity], result of:
          0.12262109 = score(doc=3148,freq=2.0), product of:
            0.32125512 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0464954 = queryNorm
            0.3816938 = fieldWeight in 3148, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3148)
      0.33333334 = coord(1/3)
    
    Abstract
    Compared to the early versions of smart phones, recent mobile devices have bigger screens that can present more web search results. Several previous studies have reported differences in user interaction between conventional desktop computer and mobile device-based web searches, so it is imperative to consider the differences in user behavior for web search engine interface design on mobile devices. However, it is still unknown how the diversification of screen sizes on hand-held devices affects how users search. In this article, we investigate search performance and behavior on three different small screen sizes: early smart phones, recent smart phones, and phablets. We found no significant difference with respect to the efficiency of carrying out tasks, however participants exhibited different search behaviors: less eye movement within top links on the larger screen, fast reading with some hesitation before choosing a link on the medium, and frequent use of scrolling on the small screen. This result suggests that the presentation of web search results for each screen needs to take into account differences in search behavior. We suggest several ideas for presentation design for each screen size.
  16. Müller, A.B.: Deutsche Digitale Bibliothek präsentiert erste Vollversion : acht Millionen Datensätze von mehr als 100 Einrichtungen online (2014) 0.04
    0.03908222 = product of:
      0.117246665 = sum of:
        0.117246665 = product of:
          0.23449333 = sum of:
            0.23449333 = weight(_text_:beta in 1514) [ClassicSimilarity], result of:
              0.23449333 = score(doc=1514,freq=2.0), product of:
                0.35121474 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0464954 = queryNorm
                0.6676637 = fieldWeight in 1514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1514)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Deutsche Digitale Bibliothek (DDB), die Ende 2012 unter www.deutsche-digitalebibliothek.de in einer ersten öffentlichen Version ans Netz gegangen ist, hat Ende März das Beta-Stadium verlassen. In Berlin wurde am 31. März die erste Vollversion präsentiert.
  17. Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019) 0.03
    0.034196947 = product of:
      0.10259084 = sum of:
        0.10259084 = product of:
          0.20518167 = sum of:
            0.20518167 = weight(_text_:beta in 5227) [ClassicSimilarity], result of:
              0.20518167 = score(doc=5227,freq=2.0), product of:
                0.35121474 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0464954 = queryNorm
                0.58420575 = fieldWeight in 5227, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5227)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Wissenschaftsverlag Springer Nature hat nach eigenen Angaben das erste Buch veröffentlicht, das von einem Algorithmus verfasst wurde. Bei Springer Nature ist das nach Angaben des Wissenschaftsverlags erste maschinengenerierte Buch erschienen: "Lithium-Ion Batteries - A Machine-Generated Summary of Current Research" biete einen Überblick über die neuesten Forschungspublikationen über Lithium-Ionen-Batterien, erklärte die Goethe-Universität Frankfurt am Main. Dort wurde im Bereich Angewandte Computerlinguistik unter der Leitung von Christian Chiarcos jenes Verfahren entwickelt, das Textinhalte automatisch analysiert und relevante Publikationen auswählen kann. Es heißt "Beta Writer" und steht als Autor über dem Buch.
  18. Ratzka, A.: Patternbasiertes User Interface Design für multimodale Interaktion : Identifikation und Validierung von Patterns auf Basis einer Analyse der Forschungsliteratur und explorativer Benutzertests an Systemprototypen (2010) 0.03
    0.03269896 = product of:
      0.09809687 = sum of:
        0.09809687 = weight(_text_:desktop in 4094) [ClassicSimilarity], result of:
          0.09809687 = score(doc=4094,freq=2.0), product of:
            0.32125512 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0464954 = queryNorm
            0.30535504 = fieldWeight in 4094, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.03125 = fieldNorm(doc=4094)
      0.33333334 = coord(1/3)
    
    Abstract
    Seit den 90er Jahren wird intensiv in verschiedensten Projekten an multimodalen Interaktionstechniken und verschiedenartigsten Modalitätskombinationen aus Sprache, Gesten, Mimik, Blickbewegungen etc. geforscht. Man hofft, im Rahmen von multimodalen Interaktionsparadigmen natürlichere, robustere, flexiblere und leistungsfähigere Benutzerschnittstellen gestalten zu können. Traditionelle Entwicklungsansätze f¨ur multimodale Interaktion bieten Implementierungs- und Prototyping-Hilfsmittel und Formalismen zur Spezifikation der Benutzerschnittstelle. Andere Ansätze legen ihren Fokus auf guidelinebasierte Entscheidungsunterstützung für die Anfangsphasen der Anforderungsanalyse. Ziel dieser Arbeit ist es, diese traditionellen Ansätze zu ergänzen. Mit Hilfe von User Interface Patterns - von Mustern erfolgreicher Systemrealisierungen - sollen nicht nur frühe Designphasen, sondern auch spätere Stufen des detaillierten Designs durch konkrete Entscheidungshilfen unterstützt werden. In dieser Arbeit wurde im Rahmen einer Metastudie über die Forschungsliteratur ein Katalog von User Interface Patterns identifiziert. Hierzu wurden allgemeine aus Forschungsergebnissen der Psychologie und Mensch- Maschine-Interaktion abgeleitete Prinzipien, Beschreibungen der im Rahmen von Forschungsprojekten entstandenen multimodalen Prototypen und auf diesen basierende empirische Forschungsergebnisse analysiert. Im Rahmen des praktischen Teils der Arbeit wurden f¨ur zwei Szenarien (PDA und Desktop) jeweils ein Wizard-of-Oz-Prototyp und ein eigenständiger "Stand-alone"-Prototyp zur E-Mail-Kommunikation umgesetzt. Diese Prototypen dienten zunächst zur exemplarischen Verifikation einiger der Patterns. Benutzertests zeigten die Plausibilität und Akzeptanz der eingesetzten Muster, insbesondere der Patterns Sprachkürzel, alternative Eingabemöglichkeiten und sprachgestütztes Formular, auf. Die Untersuchung der Augenbewegungen zeigte, dass Blickbewegungsdaten Hinweise auf Benutzerabsichten bieten können, dies allerdings von der aktuellen Aufgabe abhängt. Hier ist weitere Forschung notwendig, um neue, natürlichere und einfacher zu verwendende multimodale Bedienkonzepte zu entwickeln.
  19. Bolle, B.: Die High-Performance-Plattform New STN : eine neue Recherchedimension (2016) 0.03
    0.029311668 = product of:
      0.087935 = sum of:
        0.087935 = product of:
          0.17587 = sum of:
            0.17587 = weight(_text_:beta in 3243) [ClassicSimilarity], result of:
              0.17587 = score(doc=3243,freq=2.0), product of:
                0.35121474 = queryWeight, product of:
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.0464954 = queryNorm
                0.5007478 = fieldWeight in 3243, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.5537524 = idf(docFreq=62, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3243)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Patentinformationen spielen im Innovationsprozess eine entscheidende Rolle. Alle innovativen Unternehmen müssen, um ihr Investitionsrisiko zu minimieren und abzusichern, verlässliche Informationen zum Stand der Technik zu den Wettbewerbern und dem Marktumfeld recherchieren. Informations- Services im Patentbereich müssen daher höchsten Ansprüchen bei der Präzision und Zielgenauigkeit der Suche, ebenso wie bei der Aktualität und Vollständigkeit der Daten gerecht werden. Mit der neuen STN-Plattform hat FIZ Karlsruhe in Kooperation mit CAS (Chemical Abstract Service) eine neue Dimension bei der Informations- und Patentrecherche geöffnet. Ein intuitives Nutzerinterface für Informationsexperten, branchenführende Performance und Workflowoptimierung sind die Markenzeichen der neuen STN-Plattform. Die neue STN-Plattform wurde 2012, zunächst in einer Beta-Version, erstmals der Öffentlichkeit vorgestellt. Seit 2013 läuft die neue Plattform als Vollversion und wird kontinuierlich erweitert. Die neue STN-Plattform soll das klassische STN in Zukunft ablösen. Zurzeit werden beide STN Systeme parallel betrieben.
  20. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.03
    0.028718289 = product of:
      0.08615486 = sum of:
        0.08615486 = product of:
          0.25846457 = sum of:
            0.25846457 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
              0.25846457 = score(doc=5955,freq=2.0), product of:
                0.39418852 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0464954 = queryNorm
                0.65568775 = fieldWeight in 5955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5955)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].

Authors

Languages

  • e 476
  • d 191
  • a 1
  • hu 1
  • More… Less…

Types

  • a 582
  • el 68
  • m 46
  • s 16
  • x 12
  • r 7
  • b 5
  • n 2
  • i 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications