Search (338 results, page 1 of 17)

  • × theme_ss:"Informetrie"
  1. Herb, U.; Beucke, D.: ¬Die Zukunft der Impact-Messung : Social Media, Nutzung und Zitate im World Wide Web (2013) 0.21
    0.21375546 = product of:
      0.64126635 = sum of:
        0.20444068 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.20444068 = score(doc=2188,freq=2.0), product of:
            0.27282134 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032179873 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.20444068 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.20444068 = score(doc=2188,freq=2.0), product of:
            0.27282134 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032179873 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.027944267 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
          0.027944267 = score(doc=2188,freq=8.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.39180204 = fieldWeight in 2188, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.20444068 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.20444068 = score(doc=2188,freq=2.0), product of:
            0.27282134 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.032179873 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
      0.33333334 = coord(4/12)
    
    Abstract
    Wissenschaftliche Karrieren und Publikationen benötigen Reputation und möglichst viel Beachtung. Literatur, die diese Aufmerksamkeit findet, wird - so die gängige Annahme - häufig zitiert. Ausgehend von dieser Überlegung wurden Verfahren der Zitationsmessung entwickelt, die Auskunft über die Relevanz oder (wie im- und explizit oft auch postuliert wird) gar die Qualität einer Publikation oder eines Wissenschaftlers geben sollen.
    Content
    Vgl. unter: https://www.leibniz-science20.de%2Fforschung%2Fprojekte%2Faltmetrics-in-verschiedenen-wissenschaftsdisziplinen%2F&ei=2jTgVaaXGcK4Udj1qdgB&usg=AFQjCNFOPdONj4RKBDf9YDJOLuz3lkGYlg&sig2=5YI3KWIGxBmk5_kv0P_8iQ.
  2. Liu, Y.; Rousseau, R.: Citation analysis and the development of science : a case study using articles by some Nobel prize winners (2014) 0.02
    0.022820283 = product of:
      0.13692169 = sum of:
        0.12518968 = weight(_text_:281 in 1197) [ClassicSimilarity], result of:
          0.12518968 = score(doc=1197,freq=2.0), product of:
            0.21349068 = queryWeight, product of:
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.032179873 = queryNorm
            0.58639413 = fieldWeight in 1197, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.0625 = fieldNorm(doc=1197)
        0.011732014 = product of:
          0.03519604 = sum of:
            0.03519604 = weight(_text_:29 in 1197) [ClassicSimilarity], result of:
              0.03519604 = score(doc=1197,freq=2.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.31092256 = fieldWeight in 1197, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1197)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Date
    29. 1.2014 16:31:35
    Source
    Journal of the Association for Information Science and Technology. 65(2014) no.2, S.281-289
  3. Nourmohammadi, H.A.; Umstätter, W.: ¬Die Verteilung der Autorenhäufigkeit in wissenschaftlichen Zeitschriften bei verschiedenen Themen und Ländern (2004) 0.02
    0.02178606 = product of:
      0.13071635 = sum of:
        0.10954097 = weight(_text_:281 in 2514) [ClassicSimilarity], result of:
          0.10954097 = score(doc=2514,freq=2.0), product of:
            0.21349068 = queryWeight, product of:
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.032179873 = queryNorm
            0.51309484 = fieldWeight in 2514, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2514)
        0.021175388 = weight(_text_:und in 2514) [ClassicSimilarity], result of:
          0.021175388 = score(doc=2514,freq=6.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.2968967 = fieldWeight in 2514, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2514)
      0.16666667 = coord(2/12)
    
    Abstract
    Untersucht man die Verteilung der Autorenhäufigkeit in wissenschaftlichen Zeitschriften, hier kurz Journals Author Distri-bution (JAD) genannt indem man über mehrere Jahre die Verteilung der Häufigkeit prüft wie viele Autoren einmal, zweimal, dreimal etc. in dieser Zeitschrift erschienen, so zeigen sich charakteristische Verteilungen, die den allgemeinen Potenzgesetzen (power laws) folgen. Diese Verteilungen können als Typologie der speziellen Journale verwendet werden. Wie der Impact Factor, der Immediacy Factor oder die Halbwertzeit ist die JAD zur Kategorisierung einer Zeitschrift nützlich. Auffallend ist dabei, dass zwei Parameter, der Beginn der hyperbolischen Funktion und die Potenz in einem eher konstanten Verhältnis stehen. Den Konsequenzen dieser Beobachtung wird hier nachgegangen.
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.5, S.275-281
  4. Lancaster, F.W.; Zeter, M.J.; Metzler, L.: Ranganathan's influence examined bibliometrically (1992) 0.02
    0.020864947 = product of:
      0.25037935 = sum of:
        0.25037935 = weight(_text_:281 in 1379) [ClassicSimilarity], result of:
          0.25037935 = score(doc=1379,freq=2.0), product of:
            0.21349068 = queryWeight, product of:
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.032179873 = queryNorm
            1.1727883 = fieldWeight in 1379, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.125 = fieldNorm(doc=1379)
      0.083333336 = coord(1/12)
    
    Source
    Libri. 42(1992) no.3, S.268-281
  5. Juchem, K.; Schlögl, C.; Stock, W.G.: Dimensionen der Zeitschriftenszientometrie am Beispiel von "Buch und Bibliothek" (2006) 0.02
    0.020078853 = product of:
      0.12047312 = sum of:
        0.09480467 = weight(_text_:monographien in 4931) [ClassicSimilarity], result of:
          0.09480467 = score(doc=4931,freq=2.0), product of:
            0.21452549 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032179873 = queryNorm
            0.44192728 = fieldWeight in 4931, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.046875 = fieldNorm(doc=4931)
        0.025668446 = weight(_text_:und in 4931) [ClassicSimilarity], result of:
          0.025668446 = score(doc=4931,freq=12.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.35989314 = fieldWeight in 4931, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4931)
      0.16666667 = coord(2/12)
    
    Abstract
    Dimensionen der Zeitschriftenszientometrie sind (1.) die Produktion der Zeitschrift (Artikel, Autoren), (2.) der Inhalt (Themen) (3.) die Rezeption (Leser), (4.) die formale Fachkommunikation (Referenzen, Zitationen) sowie (5.) die Redaktion (Redaktionspolitik, Verlag). Die Zeitschrift "BuB - Forum für Bibliothek und Information" (BuB) wird einer szientometrischen Analyse unterzogen. BuB ist die auflagenstärkste deutschsprachige Zeitschrift des Bibliotheks- und Informationswesens. Innerhalb des Beobachtungszeitraums von 1990 bis 2003 sind 4.297 Beiträge mit insgesamt 6.803 Referenzen intellektuell ausgewertet worden. Im Vergleich zu erwarteten informetrischen Regelmäßigkeiten zeigt BuB bemerkenswerte Besonderheiten: Nicht ein Top-Autor, sondern eine über Jahre hinweg recht homogene Gruppe von Verfassern dominiert die Literaturproduktion bei BuB. Bei den Referenzen zeigt sich eine sehr hohe Konzentration auf die eigene Zeitschrift. BuB gleicht einer Insel, an die nur wenige fremde Informationen angespült werden. Obwohl Männer und Frauen jeweils 50 Prozent der Beiträge erarbeiten, so gibt es doch sowohl Männerdomänen (vor allem Rezensionen, aber auch Aufsätze) als auch Frauendomänen (Kurzbeiträge und Tagungsberichte). Die Halbwertszeit der Referenzen ist mit 2,7 Jahre sehr niedrig, Halbwertszeiten zitierter Monographien sind dabei höher als die der zitierten Zeitschriftenartikel.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.1, S.31-37
  6. Sieben Fragen zu Bibliometrie : Antworten von Ilka Agricola, Friedrich Götze, Martin Grötschel, Klaus Hulek, Peter Michor, Gabriele Nebe, Hans Jürgen Prömel, Jens Vygen, Gerhard Woeginger (2017) 0.02
    0.018631883 = product of:
      0.1117913 = sum of:
        0.024699474 = weight(_text_:und in 4216) [ClassicSimilarity], result of:
          0.024699474 = score(doc=4216,freq=16.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.34630734 = fieldWeight in 4216, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4216)
        0.087091826 = weight(_text_:einzelne in 4216) [ClassicSimilarity], result of:
          0.087091826 = score(doc=4216,freq=4.0), product of:
            0.18940257 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.032179873 = queryNorm
            0.4598239 = fieldWeight in 4216, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4216)
      0.16666667 = coord(2/12)
    
    Abstract
    Wissenschaftliche Institutionen und einzelne WissenschaftlerInnen werden zunehmend nach bibliometrischen Daten beurteilt. Jeder Mathematiker hat Vorbehalte gegenüber dieser Praxis. Über diese beiden Dinge waren sich alle TeilnemerInnen und Wortmeldungen des Panels zur Bibliometrie auf der DMV-Jahrestagung in Salzburg einig. Für einzelne WissenschaftlerInnen hat die IMU bereits 2014 (tinyurl.com/ycd7wvh7) die Vorbehalte gegenüber rein bibliometrischen Beurteilungen klar formuliert. Universitätsleitungen, Politik und andere bis hin zur öffentlichen Diskussion verlassen sich aber teilweise aif diese Art der Bewertung. Konkret kann das so aussehen: Zur Beurteilung von Departements zählt eine Universität Publikationen und gewichtet sie nach ihrer Güte. Die Güte entnimmt man einer Einteilung von Fachzeitschriften etwa in A, B und C. Liegt eine solche Einteilung nicht vor, sind alle Journale des Faches mit 1 gewichtet, d.h. 'junk'. Die Diskrepanz zwischen unserer Einschätzung und der allgemeinen Wirkmächtigkeit von Biblimetrie wirft für die DMV als Fachgegsellschaft die Frage auf, wie sie Einfluss nehmen kann und soll. Die 'Mitteilungen' versuchen an dieser Stelle zunächst, ein möglichst breites Meinungsbild zu sammeln. Wir haben sieben Fragen an eine Reihe von Kolleginnen und Kollegen gestellt, die am Panel teilgenmmen haben oder aus anderen Gründen mit dem Thema besfasst sind.
  7. Ohly, K.P.: Bibliometrie in der Postmoderne (2006) 0.02
    0.01725654 = product of:
      0.103539236 = sum of:
        0.02963937 = weight(_text_:und in 5865) [ClassicSimilarity], result of:
          0.02963937 = score(doc=5865,freq=16.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.41556883 = fieldWeight in 5865, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5865)
        0.073899865 = weight(_text_:einzelne in 5865) [ClassicSimilarity], result of:
          0.073899865 = score(doc=5865,freq=2.0), product of:
            0.18940257 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.032179873 = queryNorm
            0.39017352 = fieldWeight in 5865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=5865)
      0.16666667 = coord(2/12)
    
    Abstract
    Die Messung wissenschaftlicher Leistung hat gerade in Zeiten knapper öffentlicher Budgets Konjunktur. Wissenschaftliche Indikatoren zeichnen sich dadurch aus, dass nicht mehr einzelne Experten ihre subjektive Einschätzung über den Zustand der Wissenschaften abgeben, sondern die Summe dessen, was die Wissenschaft selbst produziert hat, so analysiert wird, dass ein objektives' Bild der Wissenschaft entsteht'. Zudem könnte mit der öffentlichen Diskussion etwa von Rankinglisten eine demokratische Steuerung des Wissenschaftsbetriebs erreicht zu werden'. Andererseits kann seriöse Forschung, die langfristige Forschungsziele in unspektakulären Schritten stützt, die unkonventionell Wissenschaft betreibt oder die Methodenkritik ernst nimmt, hierdurch benachteiligt werden. In unserer wissenschaftlichen Kommunikation wird es zunehmend schwerer, Wissenschaftsinhalte, Wissenschaftseinheiten und Wissenschaftsauswirkungen zu definieren oder gar ursächlich zuzuschreiben. Eine Bibliometrie, die sich als eine Wissenschaft von der Messbarkeit und Aussagekraft der wissenschaftlichen Prozesse und Produkte versteht, wird genau dort wieder anzusetzen haben, wo sie einst begonnen hat: nämlich bei der Hinterfragung dessen, wie Wissenschaftlichkeit und Forschungsfortschritt sich objektiv ausdrückt und wie dies 'unobstrusiv' ermittelt und sozialverträglich kommuniziert werden kann.
    Source
    Wissensorganisation und Verantwortung: Gesellschaftliche, ökonomische und technische Aspekte. Proceedings der 9. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Duisburg, 5.-7. November 2004. Hrsg. von H.P. Ohly u.a
  8. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.01
    0.014731957 = product of:
      0.088391736 = sum of:
        0.06320311 = weight(_text_:monographien in 4302) [ClassicSimilarity], result of:
          0.06320311 = score(doc=4302,freq=2.0), product of:
            0.21452549 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032179873 = queryNorm
            0.2946182 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.025188621 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.025188621 = score(doc=4302,freq=26.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.16666667 = coord(2/12)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
  9. Ravichandra Rao, I.K.; Sahoo, B.B.: Studies and research in informetrics at the Documentation Research and Training Centre (DRTC), ISI Bangalore (2006) 0.01
    0.0139786545 = product of:
      0.08387192 = sum of:
        0.075072914 = weight(_text_:software in 1512) [ClassicSimilarity], result of:
          0.075072914 = score(doc=1512,freq=10.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.58805794 = fieldWeight in 1512, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=1512)
        0.008799011 = product of:
          0.02639703 = sum of:
            0.02639703 = weight(_text_:29 in 1512) [ClassicSimilarity], result of:
              0.02639703 = score(doc=1512,freq=2.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.23319192 = fieldWeight in 1512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1512)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    Contributions of DRTC to informetric studies and research are discussed. A report on recent work - a quantitative country-wise analysis of software literature based on the data from two bibliographic databases i.e. COMPENDEX and INSPEC is presented. The number of countries involved in R & D activities in software in the most productive group is increasing. The research contribution on software is decreasing in developed countries as compared to that in developing and less developed countries. India 's contribution is only 1.1% and it has remained constant over the period of 12 years 1989-2001. The number of countries involved in R&D activities in software has been increasing in the 1990s. It is also noted that higher the budget for higher education, higher the number of publications; and that higher the number of publications, higher the export as well as the domestic consumption of software.
    Date
    29. 2.2008 18:14:14
  10. Marion, L.S.; McCain, K.W.: Contrasting views of software engineering journals : author cocitation choices and indexer vocabulary assignments (2001) 0.01
    0.013559233 = product of:
      0.0813554 = sum of:
        0.07402289 = weight(_text_:software in 5767) [ClassicSimilarity], result of:
          0.07402289 = score(doc=5767,freq=14.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.5798329 = fieldWeight in 5767, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5767)
        0.007332509 = product of:
          0.021997526 = sum of:
            0.021997526 = weight(_text_:29 in 5767) [ClassicSimilarity], result of:
              0.021997526 = score(doc=5767,freq=2.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.19432661 = fieldWeight in 5767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5767)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    We explore the intellectual subject structure and research themes in software engineering through the identification and analysis of a core journal literature. We examine this literature via two expert perspectives: that of the author, who identified significant work by citing it (journal cocitation analysis), and that of the professional indexer, who tags published work with subject terms to facilitate retrieval from a bibliographic database (subject profile analysis). The data sources are SCISEARCH (the on-line version of Science Citation Index), and INSPEC (a database covering software engineering, computer science, and information systems). We use data visualization tools (cluster analysis, multidimensional scaling, and PFNets) to show the "intellectual maps" of software engineering. Cocitation and subject profile analyses demonstrate that software engineering is a distinct interdisciplinary field, valuing practical and applied aspects, and spanning a subject continuum from "programming-in-the-smalI" to "programming-in-the-large." This continuum mirrors the software development life cycle by taking the operating system or major application from initial programming through project management, implementation, and maintenance. Object orientation is an integral but distinct subject area in software engineering. Key differences are the importance of management and programming: (1) cocitation analysis emphasizes project management and systems development; (2) programming techniques/languages are more influential in subject profiles; (3) cocitation profiles place object-oriented journals separately and centrally while the subject profile analysis locates these journals with the programming/languages group
    Date
    29. 9.2001 14:01:01
  11. Performance measures for government sponsored basic research (1996) 0.01
    0.013040591 = product of:
      0.15648709 = sum of:
        0.15648709 = weight(_text_:281 in 6695) [ClassicSimilarity], result of:
          0.15648709 = score(doc=6695,freq=2.0), product of:
            0.21349068 = queryWeight, product of:
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.032179873 = queryNorm
            0.73299265 = fieldWeight in 6695, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.078125 = fieldNorm(doc=6695)
      0.083333336 = coord(1/12)
    
    Source
    Scientometrics. 36(1996) no.3, S.281-478
  12. Informations- und Wissensverarbeitung in den Sozialwissenschaften : Beiträge zur Umsetzung neuer Informationstechnologien (1994) 0.01
    0.012080114 = product of:
      0.072480686 = sum of:
        0.046282936 = weight(_text_:informatik in 5067) [ClassicSimilarity], result of:
          0.046282936 = score(doc=5067,freq=2.0), product of:
            0.16419695 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032179873 = queryNorm
            0.2818745 = fieldWeight in 5067, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5067)
        0.026197748 = weight(_text_:und in 5067) [ClassicSimilarity], result of:
          0.026197748 = score(doc=5067,freq=18.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.3673144 = fieldWeight in 5067, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5067)
      0.16666667 = coord(2/12)
    
    Abstract
    Die Beiträge behandeln aus verschiedenen Blickwinkeln einen durch die Begriffe Sozialwissenschaft-Informatik-Information abgegrenzten, interdisziplinären Themenkomplex. Gerade in den Sozialwissenschaften haben die qualitative Textinterpretation und die Suche nach typischen, einzelnen Fällen ihren festen Stellenwert, und automatische Informationssuche und Informationsaufbereitung sind zu unverzichtbaren Forschungsinstrumenten geworden. Dieser Band enthält eine Vielzahl von Fachbeiträgen, die im Rahmen entsprechender Spezialveranstaltungen entstanden sind oder eigens für diesen Band geschrieben wurden. Sowohl als Einführungen wie auch im Rahmen spezieller Fragestellungen werden Ansätze aus den Gebieten Künstliche Intelligenz, Bilderkennung, Kommunikationsnetze, Hypertext, Szientometrie, Bibliometrie u.a., jeweils mit Bezug auf sozialwissenschaftliche Anwendung, vorgestellt
    Content
    Enthält u.a. die Beiträge: INGWERSEN, P.: Information science as a cognitive science; MEDER, N.: Objekt-orientierte Wissensdarstellung und -navigation; SPIESS, M.: Repräsentation unsicheren Wissens; HENRICHS, N.: Begriffswandel in Datenbanken: kontextuelle Inhaltsanalyse für Disambiguierung und ideengeschichtliche Analyse; VOGT, C. u. R. WILLE: Formale Begriffsanalyse: Darstellung und Analyse von bibliographischen Daten; RITTBERGER, M.: Online-Retrieval und Hypertext: auf dem Weg zu verknüpften Datenbanken und offenen Hypertextsystemen; SCHOPEN, M.: GRIPS-Menu: Unterstützung von Endnutzerrecherchen in Literaturdatenbanken des DIMDI; KLOSE, G. u. T. PIRLEIN: Wissensmodellierung in LILOG; DANIEL, H.-D.: Peer-review als Qualitätsfilter im wissenschaftlichen Publikationswesen
  13. Petersen, A.; Münch, V.: STN® AnaVist(TM) holt verborgenes Wissen aus Recherche-Ergebnissen : Neue Software analysiert und visualisiert Marktaufteilung, Forschung und Patentaktivitäten (2005) 0.01
    0.011494214 = product of:
      0.06896528 = sum of:
        0.044764835 = weight(_text_:software in 3984) [ClassicSimilarity], result of:
          0.044764835 = score(doc=3984,freq=8.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.35064998 = fieldWeight in 3984, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=3984)
        0.024200445 = weight(_text_:und in 3984) [ClassicSimilarity], result of:
          0.024200445 = score(doc=3984,freq=24.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.33931053 = fieldWeight in 3984, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3984)
      0.16666667 = coord(2/12)
    
    Abstract
    "Im 21. Jahrhundert ist die entscheidende Herausforderung an Informationsdienstleister nicht, Informationen zugänglich, sondern sie optimal nutzbar zu machen", sagt Sabine Brünger-Weilandt, Geschäftsführerin von FIZ Karlsruhe, das den Online-Dienst STN International in internationaler Kooperation betreibt. Informationsprofis, so Brünger-Weilandt weiter, bräuchten hockentwickelte Software für strategisches Informationsmanagement. Als "Antwort auf diesen Bedarf" hat STN International eine neue Software zur Analyse und Visualisierung (A&V) von Rechercheergebnissen aus STN-Datenbanken entwickelt. STN® AnaVistT(TM) wurde auf der DGI Online-Tagung Ende Mai in Frankfurt am Main und auf Benutzertreffen in Frankfurt am Main, München und Essen vorgestellt. Seit 18. Juli 2005 ist das neue A&V-Werkzeug für die öffentliche Nutzung freigegeben (www.stn-international.de).
    Die wichtigsten Funktionen von STN AnaVist sind: - Inhalte aus mehreren Datenbanken sind gleichzeitig auswertbar - Nutzer können Daten aus unterschiedlichen Ouellen suchen, analysieren und visualisieren, u.a. aus der Chemiedatenbank CAplusSM, der Patentdatenbank PCTFULL, und US-amerikanischen Volltextdatenbanken. - Einzigartige Beziehungen zwischen Datenelementen-nur STN AnaVist bietet die Möglichkeit, Beziehungen zwischen sieben unterschiedlichen Feldern aus Datenbankdokumenten - z.B., Firmen, Erfindern, Veröffentlichungsjahren und Konzepten-darzustellen. - Gruppierung und Bereinigung von Daten - vor der Analyse werden Firmen und ihre unterschiedlichen Namensvarianten von einem "Company Name Thesaurus" zusammengefasst. - Konzept-Standardisierung - Durch das CAS-Vokabular werden Fachbegriffe datenbankübergreifend standardisiert, so dass weniger Streuung auftritt. - Interaktive Präsentation der Beziehungen zwischen Daten und Diagrammenwährend der Auswertung können Daten zum besseren Erkennen der Beziehungen farblich hervorgehoben werden. - Flexible Erstellung der auszuwertenden Rechercheergebnisse - Rechercheergebnisse, die als Ausgangsdatensatz für die Analyse verwendet werden sollen, können auf zwei Arten gewonnen werden: zum einen über die in STN® AnaVist(TM) integrierte Konzept-Suchfunktion, zum anderen durch problemlose Übernahme von Suchergebnissen aus der bewährten Software STN Express® with Discover! TM Analysis Edition, Version 8.0
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.319-322
  14. Garfield, E.; Paris, S.W.; Stock, W.G.: HistCite(TM) : a software tool for informetric analysis of citation linkage (2006) 0.01
    0.01126988 = product of:
      0.06761928 = sum of:
        0.055393662 = weight(_text_:software in 79) [ClassicSimilarity], result of:
          0.055393662 = score(doc=79,freq=4.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.43390724 = fieldWeight in 79, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=79)
        0.012225617 = weight(_text_:und in 79) [ClassicSimilarity], result of:
          0.012225617 = score(doc=79,freq=2.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.17141339 = fieldWeight in 79, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=79)
      0.16666667 = coord(2/12)
    
    Abstract
    HistCite(TM) is a software tool for analyzing and visualizing direct citation linkages between scientific papers. Its inputs are bibliographic records (with cited references) from "Web of Knowledge" or other sources. Its outputs are various tables and graphs with informetric indicators about the knowledge domain under study. As an example we analyze informetrically the literature about Alexius Meinong, an Austrian philosopher and psychologist. The article shortly discusses the informetric functionality of "Web of Knowledge" and shows broadly the possibilities that HistCite offers to its users (e.g. scientists, scientometricans and science journalists).
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.8, S.391-400
  15. Egghe, L.: Sampling and concentration values of incomplete bibliographies (2002) 0.01
    0.009128414 = product of:
      0.10954097 = sum of:
        0.10954097 = weight(_text_:281 in 450) [ClassicSimilarity], result of:
          0.10954097 = score(doc=450,freq=2.0), product of:
            0.21349068 = queryWeight, product of:
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.032179873 = queryNorm
            0.51309484 = fieldWeight in 450, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.0546875 = fieldNorm(doc=450)
      0.083333336 = coord(1/12)
    
    Source
    Journal of the American Society for Information Science and technology. 53(2002) no.4, S.271-281
  16. Herb, U.: Überwachungskapitalismus und Wissenschaftssteuerung (2019) 0.01
    0.008044119 = product of:
      0.048264712 = sum of:
        0.027944267 = weight(_text_:und in 5624) [ClassicSimilarity], result of:
          0.027944267 = score(doc=5624,freq=8.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.39180204 = fieldWeight in 5624, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5624)
        0.020320445 = product of:
          0.060961332 = sum of:
            0.060961332 = weight(_text_:29 in 5624) [ClassicSimilarity], result of:
              0.060961332 = score(doc=5624,freq=6.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.5385337 = fieldWeight in 5624, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5624)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    Die Metamorphose des Wissenschaftsverlags Elsevier zum Research Intelligence Dienstleister ist paradigmatisch für die neuen Möglichkeiten der Protokollierung und Steuerung von Wissenschaft.
    Content
    Der Text ist eine überarbeitete Version des von Herb, U. (2018): Zwangsehen und Bastarde : Wohin steuert Big Data die Wissenschaft? In: Information - Wissenschaft & Praxis, 69(2-3), S. 81-88. DOI:10.1515/iwp-2018-0021.
    Date
    29. 6.2019 17:46:17
    4. 8.2019 19:52:29
    Issue
    [29. Juli 2019].
    Source
    https://www.heise.de/tp/features/Ueberwachungskapitalismus-und-Wissenschaftssteuerung-4480357.html?seite=all
  17. Harter, S.P.; Cheng, Y.-R.: Colinked descriptors : improving vocabulary selection for end-user searching (1996) 0.01
    0.0073421216 = product of:
      0.044052728 = sum of:
        0.033573627 = weight(_text_:software in 4216) [ClassicSimilarity], result of:
          0.033573627 = score(doc=4216,freq=2.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.2629875 = fieldWeight in 4216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=4216)
        0.0104791 = weight(_text_:und in 4216) [ClassicSimilarity], result of:
          0.0104791 = score(doc=4216,freq=2.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.14692576 = fieldWeight in 4216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4216)
      0.16666667 = coord(2/12)
    
    Abstract
    This article introduces a new concept and technique for information retrieval called 'colinked descriptors'. Borrowed from an analogous idea in bibliometrics - cocited references - colinked descriptors provide a theory and method for identifying search terms that, by hypothesis, will be superior to those entered initially by a searcher. The theory suggests a means of moving automatically from 2 or more initial search terms, to other terms that should be superior in retrieval performance to the 2 original terms. A research project designed to test this colinked descriptor hypothesis is reported. The results suggest that the approach is effective, although methodological problems in testing the idea are reported. Algorithms to generate colinked descriptors can be incorporated easily into system interfaces, front-end or pre-search systems, or help software, in any database that employs a thesaurus. The potential use of colinked descriptors is a strong argument for building richer and more complex thesauri that reflect as many legitimate links among descriptors as possible
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  18. Ball, R.: Wissenschaftsindikatoren im Zeitalter digitaler Wissenschaft (2007) 0.01
    0.007211985 = product of:
      0.04327191 = sum of:
        0.036005363 = weight(_text_:und in 875) [ClassicSimilarity], result of:
          0.036005363 = score(doc=875,freq=34.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.50482535 = fieldWeight in 875, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=875)
        0.0072665485 = product of:
          0.021799644 = sum of:
            0.021799644 = weight(_text_:22 in 875) [ClassicSimilarity], result of:
              0.021799644 = score(doc=875,freq=2.0), product of:
                0.11268844 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032179873 = queryNorm
                0.19345059 = fieldWeight in 875, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=875)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    Die Bereitstellung und Nutzung digitaler Bibliotheken entwickelt sich allmählich zum Standard der Literatur und Informationsversorgung in Wissenschaft und Forschung. Ganzen Disziplinen genügt oftmals die verfügbare digitale Information, Printmedien werden besonders im STM-Segment zu einem Nischenprodukt. Digitale Texte können beliebig eingebaut, kopiert und nachgenutzt werden, die Verlinkung zwischen Metadaten und Volltexten bringt weitere Nutzungsvorteile. Dabei sind die Angebote von Digital Libraries Bestandteil eines ganzheitlichen digitalen Ansatzes, wonach die elektronische Informations- und Literaturversorgung integraler Bestandteil von E-Science (Enhanced Science) oder Cyberinfrastructure darstellt. Hierbei verschmelzen dann Produktion, Diskussion, Distribution und Rezeption der wissenschaftlichen Inhalte auf einer einzigen digitalen Plattform. Damit sind dann nicht nur die Literatur- und Informationsversorgung (Digital Libraries), sondern auch die Wissenschaft selbst digital geworden. Diese dramatische Veränderung in der Wissenschaftskommunikation hat direkte Auswirkungen auf die Messung der Wissenschaftskommunikation, also auf die Evaluation von wissenschaftlichem Output. Bisherige Systeme der Wissenschaftsvermessung basieren hauptsächlich auf bibliometrischen Analysen, d.h. der Quantifizierung des Outputs und dessen Rezeption (Zitierhäufigkeit). Basis dafür sind insbesondere im STM-Bereich die international anerkannten Datenbanken des ISI (Thomson Scientific) insbesondere der Science Citation Index, SCI) oder vielleicht zukünftig das Konkurrenzprodukt SCOPUS des Wissenschaftskonzerns Reed Elsevier. Die Digitalisierung der Wissenschaft in ihrem kompletten Lebenszyklus, die zunehmende Nutzung und Akzeptanz von Dokumentenrepositorien, Institutsservern und anderen elektronischen Publikationsformen im Rahmen von E-Science erfordern und ermöglichen zugleich den Nachweis von Output und Rezeption durch neue bibliometrische Formen, etwa der Webometrie (Webmetrics). Im vorliegenden Paper haben wir hierzu Analysen durchgeführt und stellen eine Abschätzung vor, wie sich der Anteil von webometrisch erfassbarer und zugänglicher wissenschaftlicher Literatur im Vergleich zu Literatur, die mit den Standardsystemen nachgewiesen werden kann im Laufe der letzten Jahre verändert hat. Dabei haben wir unterschiedliche Disziplinen und Länder berücksichtigt. Zudem wird ein Vergleich der webometrischen Nachweisqualität so unterschiedlicher Systeme wie SCI, SCOPUS und Google Scholar vorgestellt.
    Date
    23.12.2007 19:22:21
  19. Bookstein, A.: Informetric distributions : I. Unified overview (1990) 0.01
    0.006812893 = product of:
      0.081754714 = sum of:
        0.081754714 = product of:
          0.12263207 = sum of:
            0.06159307 = weight(_text_:29 in 6902) [ClassicSimilarity], result of:
              0.06159307 = score(doc=6902,freq=2.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.5441145 = fieldWeight in 6902, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6902)
            0.061039 = weight(_text_:22 in 6902) [ClassicSimilarity], result of:
              0.061039 = score(doc=6902,freq=2.0), product of:
                0.11268844 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032179873 = queryNorm
                0.5416616 = fieldWeight in 6902, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6902)
          0.6666667 = coord(2/3)
      0.083333336 = coord(1/12)
    
    Date
    22. 7.2006 18:55:29
  20. Mayr, P.; Tosques, F.: Webometrische Analysen mit Hilfe der Google Web APIs (2005) 0.01
    0.006702006 = product of:
      0.040212035 = sum of:
        0.029946523 = weight(_text_:und in 3189) [ClassicSimilarity], result of:
          0.029946523 = score(doc=3189,freq=12.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.41987535 = fieldWeight in 3189, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3189)
        0.010265512 = product of:
          0.030796535 = sum of:
            0.030796535 = weight(_text_:29 in 3189) [ClassicSimilarity], result of:
              0.030796535 = score(doc=3189,freq=2.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.27205724 = fieldWeight in 3189, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3189)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    Der Report stellt die Möglichkeiten und Einschränkungen der Google Web APIs (Google API) dar. Die Implementierung der Google API anhand einzelner informationswissenschaftlicher Untersuchungen aus der Webometrie ergibt, dass die Google API mit Einschränkungen für internetbezogene Untersuchungen eingesetzt werden können. Vergleiche der Trefferergebnisse über die beiden Google-Schnittstellen Google API und die Standard Weboberfläche Google.com (Google Web) zeigen Unterschiede bezüglich der Reichweite, der Zusammensetzung und Verfügbarkeit. Die Untersuchung basiert auf einfachen und erweiterten Suchanfragen in den Sprachen Deutsch und Englisch. Die analysierten Treffermengen der Google API bestätigen tendenziell frühere Internet-Studien.
    Date
    12. 2.2005 18:29:36
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.41-48

Years

Languages

  • e 239
  • d 95
  • m 1
  • ro 1
  • sp 1
  • More… Less…

Types

  • a 320
  • el 10
  • m 9
  • s 4
  • r 2
  • b 1
  • x 1
  • More… Less…