Der h-Index ist eine Kennzahl für die weltweite Wahrnehmung eines Wissenschaftlers in Fachkreisen. Die Kennzahl basiert auf bibliometrischen Analysen von Zitationen der Publikationen des Wissenschaftlers. Ein hoher h-Index ergibt sich, wenn eine erhebliche Anzahl von Publikationen des Wissenschaftlers häufig in anderen Veröffentlichungen zitiert wird. Der 2005 von dem Physiker Jorge E. Hirsch vorgeschlagene Bewertungsindex wird gelegentlich auch als Hirsch-Index, Hirschfaktor, Hirsch-Koeffizient oder h-number bezeichnet.

Der h-Index eines Wissenschaftlers kann im Laufe der Zeit nicht sinken; andererseits kann er auch nicht allein über die Anzahl seiner Veröffentlichungen steigen.

Der h-Index kann auch posthum steigen. Nach oben begrenzt ist er mit der Anzahl der Publikationen eines Autors.

Definition

Der Index eines Wissenschaftlers wurde definiert als die größtmögliche Anzahl der Publikationen dieses Wissenschaftlers, die mindestens -mal zitiert wurden.

Gemeint ist dabei stets die größte Zahl, die diese Anforderung erfüllt. Äquivalent dazu ist deshalb die folgende Definition: Ein Wissenschaftler hat einen Hirsch-Index , wenn von seinen insgesamt Publikationen mindestens -mal und die restlichen Publikationen höchstens -mal zitiert wurden.

Zur Ermittlung kann man alle Veröffentlichungen des Autors nach Zitierhäufigkeiten absteigend aufreihen und zählt dann durch, bis die -te Veröffentlichung weniger als Zitierungen hat. Dann ist .

Laut Hirsch ist ein h-Index von 20 nach 20 Jahren Forschungsaktivität das Zeichen eines erfolgreichen Wissenschaftlers. Ein h-Index von 40 nach 20 Jahren Forschungsaktivität zeige den außergewöhnlichen Wissenschaftler an, der wahrscheinlich nur in Top-Universitäten und großen Forschungslabors gefunden werden könne. Einen h-Index von 60 und höher nach 20 Jahren Forschungsaktivität weisen laut Hirsch nur einzigartige Persönlichkeiten auf.

Beispiele zur Berechnung

Einige Beispiele von Autoren mit jeweils 10 Veröffentlichungen:

  • Bei Zitathäufigkeiten 10, 9, 8, 7, 6, 5, 4, 3, 2, 1 ist der Hirschfaktor 5, weil fünf Veröffentlichungen mindestens fünfmal, die restlichen höchstens fünfmal zitiert wurden. Die sechste Veröffentlichung wurde ebenfalls fünfmal zitiert, sie kann aber nicht mitgezählt werden, weil der Hirschfaktor damit auf 6 steigen würde, und fünf Zitierungen somit nicht mehr ausreichen würden.
  • Bei Zitathäufigkeiten 100, 100, 2, 2, 2, 2, 2, 2, 2, 2 ist der Hirschfaktor 2, weil zwei Veröffentlichungen mindestens zweimal, die restlichen höchstens zweimal zitiert wurden.
  • Bei Zitathäufigkeiten 100, 100, 9, 8, 3, 2, 2, 1, 1, 0 ist der Hirschfaktor 4, weil vier Veröffentlichungen mindestens viermal, die restlichen höchstens viermal zitiert wurden.

Beispiel mit zeitlichem Verlauf

Hintergründe

Der h-Index zur Bewertung wissenschaftlicher Leistungen wurde 2005 von dem argentinischen Physiker Jorge E. Hirsch in den Proceedings of the National Academy of Sciences vorgeschlagen.

Als Datengrundlage zur Berechnung des bibliometrischen Indikators sind diverse Datenquellen denkbar, die Zitierungen nachweisen. Hirsch selbst schlug vor, maßgeblich die Daten des Web of Science zu benutzen, da diese seinerzeit die verlässlichste und umfassendste Datengrundlage darstellten.

Inzwischen kann der h-Index in vielen Zitationsdatenbanken ermittelt werden, z. B. in Google Scholar, wenn der Autor ein Profil hat.

Beispiel mit unterschiedlichen Datenbasen

Am Beispiel des theoretischen Physikers Stephen W. Hawking (1942–2018) lässt sich der Einfluss der für die Ermittlung des h-Indexes verwendeten Datenbasis gut veranschaulichen. Die Erhebung der Daten erfolgte am 15. Juni 2017:

Datenbank Zahl der erfassten
Veröffentlichungen
Gesamtzahl
der Zitierungen
h-Index
Google Scholar908121.425118
Scopus14829.98566
Web of Science CC17937.48478

Entwicklung

Der h-Index wird nicht nur als Kennzahl für Autoren verwendet, sondern auch für Institutionen, Arbeitsgruppen, Länder oder Zeitschriften. Für bestimmte Zwecke werden auch Varianten genutzt (s. u.).

Eigenschaften

Der h-Index hat einige Vorteile gegenüber anderen Kennzahlen (wie zum Beispiel der Gesamtanzahl von Zitationen eines Autors oder dem Impact-Faktor), da die Zitationen einer einzigen, viel-zitierten Veröffentlichung keinen großen Einfluss auf den Index haben. Dies kann aber auch als Nachteil interpretiert werden, da eventuell bahnbrechende Artikel nicht entsprechend gewürdigt werden (es kommt quasi zu einer harmonischen Angleichung der Bewertung der Zitate). Außerdem wird weder die Zahl der Koautoren noch die Tatsache berücksichtigt, ob die zitierte Publikation eine Originalarbeit oder ein Übersichtsartikel ist. Generell ist zu beachten, dass durch Zitationen die (unterschiedlich begründete) „Popularität“ und nicht notwendigerweise die wissenschaftliche Relevanz einer Publikation gemessen wird; so hätte der früh verstorbene Évariste Galois trotz seiner grundlegenden Arbeiten für die Mathematik nur einen h-index von 2, und Albert Einstein hätte nach dem Annus Mirabilis einen h-index von 4 gehabt.

Grundsätzlich haben junge Forscher niedrigere h-Indizes als ältere im gleichen Fach, da sie noch weniger publiziert haben. In Fächern, in denen weniger publiziert und zitiert wird, sind die h-Indizes niedriger als in Fächern mit hohem Output. Obwohl eine hohe Produktivität nicht zwangsläufig mit einem höheren Index belohnt wird, so kann der h-Index maximal so hoch wie die Anzahl an Veröffentlichungen sein.

Probleme und Kritik

Die Erhebung der Grunddaten stellt eine große Schwierigkeit dar. Mit der von Hirsch vorgeschlagenen Datengrundlage (Web of Science von Clarivate) werden unter anderem Buchpublikationen schlecht erfasst, was die Ergebnisse der Erhebung stark beeinflusst. Insbesondere in den Sozial- und Geisteswissenschaften können weitere Veröffentlichungen wie z. B. Buchrezensionen bedeutend sein, ohne dass diese häufig zitiert und damit im h-Index berücksichtigt werden. Wird die Erhebung hingegen auf eine nicht kontrollierte, größere Datengrundlage wissenschaftlicher Veröffentlichungen erweitert (z. B. Google Scholar), so kann der h-Index durch viele Selbstreferenzierungen gezielt manipuliert und leicht in die Höhe getrieben werden, wie 2011 an der Universität Grenoble demonstriert wurde. Deshalb sind h-Indizes immer mit der zugrundeliegenden Datenbank und dem Erhebungsdatum anzugeben. Ferner ist die Abgrenzung von Autoren mit gleichen Namen ein Problem. Durch Verwendung von Identifikatoren wie ORCID wird eine korrekte Zuordnung erreicht.

Die Bedeutung, die der h-Index und vergleichbare bibliometrische Maße für die Karriere von Wissenschaftlern haben, führt zu Optimierungsstrategien, die sich negativ auf die wissenschaftliche Kultur auswirken. So kann es etwa zielführend sein, eine Veröffentlichung in mehrere Teile zu zerlegen und einzeln zu publizieren, eigennutzenorientiert mit Selbstzitaten. Eine weitere mögliche Strategie besteht darin, Gruppen („Denkschulen“) von 10 bis 15 Wissenschaftlern zu bilden, die eine eigene Zeitschrift oder ein ähnliches Publikationsorgan gründen und sich darin gegenseitig häufig zitieren. Ebenso sind Zitationszirkel (auch als Zitierkartelle bezeichnet) eine Möglichkeit, um den persönlichen Faktor besserzustellen. Dabei schließen sich Gruppen von Wissenschaftlern zusammen, die sich gegenseitig bei Veröffentlichung zitieren oder die Gruppenmitglieder bei (absehbar zitierfähigen) Veröffentlichungen als Co-Autoren berücksichtigen. Diese Praktiken können die Seriosität der Wissenschaft untergraben. Entsprechend gibt es Stimmen, den h-Index aufzulösen oder die zahlreichen Defizite des h-Index durch Änderungen zu beheben.

Ein weiterer Kritikpunkt trifft die Tatsache, dass der h-Index keinerlei Aussagekraft über die Bedeutung der Forschung für die Anwendung hat. Die nachfolgenden Kritikpunkte sind besonders valide für Disziplinen mit (ursprünglich) starkem Anwendungsbezug wie beispielsweise Klimaschutz, Naturschutz oder Forst- und Landwirtschaft. Wissenschaftliche Erkenntnisse finden möglicherweise nicht den Weg in die Praxis und der Informationsbedarf der Praktiker wird von den Wissenschaftlern oft möglicherweise nicht angemessen berücksichtigt. Ein möglicher Grund dafür könnte sein, dass die heutigen Bewertungssysteme der Wissenschaft unter anderem Indices wie den h-Index verwenden, die sich vornehmlich auf die Wahrnehmung der Forschungsarbeit in Wissenschaftskreisen und nicht auf den Outcome in der Praxis fokussieren. Einschränkend ist zu erwähnen, dass aktuell keine Indices zur quantitativen oder qualitativen Bewertung des sog. „Praktischen Outcomes“ existieren. Forschende haben ein Eigeninteresse an einem hohen h-Index, während der Outcome in der Praxis für die Karriere eines Wissenschaftlers möglicherweise weniger relevant ist. Einschränkend muss hier erwähnt werden, dass die Anmeldung von Patenten, finanzielle Entlohnung durch Produktentwicklung und direkte Förderung durch Unternehmen durchaus besonders solcherlei Wissenschaft entlohnen, die anwendbar ist. In der Anwendung bzw. Praxis (Naturschutz, Landwirtschaft, Wasserwirtschaft etc.) werden fremdsprachige Forschungsergebnisse allerdings möglicherweise weniger gelesen. Veröffentlichungen in der Landessprache und in frei zugänglichen Druckwerken könnten dazu beitragen, eine von manchen gesehene Lücke zwischen Forschung und Praxis zu verkleinern. Veröffentlichungen in der Landessprache erreichen in manchen Fachkreisen jedoch möglicherweise weniger Wissenschaftler und werden daher unter Umständen weniger zitiert, abhängig vom jeweiligen Einzelfall. Fragen zum Management spezifischer regionaler Lebensräume sind beispielsweise für den Wissenschaftszirkel global uninteressant und daher weniger zitierfähig. Aufgrund des Zitationsfokusses des h-Index finden regionale Fragestellungen deshalb wesentlich weniger Beachtung in globalen Fachzeitschriften, sondern werden eher in regionalen Fachzeitschriften erörtert.

Ein weiterer Kritikpunkt ist, dass Forschende in Disziplinen, in denen weniger Wissenschaftler arbeiten, unter Umständen schwerer auf eine hohe Anzahl von Zitationen kommen können und daher im Mittel einen geringeren h-index haben als Forschende, die in Disziplinenen arbeiten, in denen sehr viele andere Wissenschaftler tätig sind (z. B. Physik, Biologie). Da diese Indices in Relation zu anderen Wissenschaftlern im Feld beachtet werden, erlaubt der Index dennoch eine kontextualisierte Einordnung durch andere Wissenschaftler. Über die Qualität der Arbeit sagt der h-index nichts aus, nur über die Popularität (s. o.). Im seltenen Extremfall können sogar Forschungsarbeiten mit offensichtlichen methodischen Fehlern viele Zitationen aufweisen und den h-Index anheben, weil andere Wissenschaftler in Kommentaren oder Artikeln auf ebendiese methodischen Schwächen hinweisen und den Artikel somit zitieren.

Wissenschaftler mit hohen h-Indizes

Wissenschaftler mit den höchsten h-Indizes nach Hirsch

Zur Zeit der Publikation des Hirsch-Indexes hatte Edward Witten mit 120 den höchsten h-Index unter Physikern. Andere bekannte Physiker erreichten einen h-Index von 62 bis 107. Für Forscher in Biologie und Biomedizin errechnete Hirsch anhand der Zitierungen in den Jahren von 1983 bis 2002 ebenfalls einen h-Index. Den höchsten h-Index dieser Fachgruppe aus dieser Zeit besaß Solomon H. Snyder mit 191, die folgenden 9 Forscher der Rangfolge hatten h-Indizes von 160 bis 120.

Beispiele für h-Indizes 2021

Die folgenden Beispiele geben den Stand am 7. Mai 2021 laut der Datenbank Scopus wieder.

Beispiele für Wissenschaftler, Veröffentlichungszahlen und h-Indizes 2021
Name Fachgebiet Veröffent­lichungen Summe der Zitierungen h-Index Quelle
Albert Einstein Physik 102 25.984 41
Stephen Hawking Physik 161 44.981 75
Didier Queloz Physik 494 29.739 88
Christian Drosten Virologie 437 42.835 88
John B. Goodenough Chemie 987 130.937 164 (27. Juni 2023)
Edward Witten Physik 303 111.651 145
Anthony Fauci Immunologie 1180 118.166 178
David Baltimore Virologie 742 125.839 179
Ronald M. Evans Molekular­biologie 562 136.032 180
Carlo Maria Croce Krebsforschung 1298 172.299 194
Matthias Mann Physik 786 168.025 204
Solomon H. Snyder Neuro­wissenschaften 1278 180.055 218
George Whitesides Chemie 1370 241.022 228
Robert Langer Chemie­ingenieurwesen 1761 217.459 229
Bert Vogelstein Krebsforschung 625 296.736 238
Michael Grätzel Chemie 1651 333.566 259

Literatur

Einzelnachweise

  1. 1 2 3 4 J. E. Hirsch: An index to quantify an individual’s scientific research output. In: Proceedings of the National Academy of Sciences. Band 102, Nummer 46, November 2005, ISSN 0027-8424, S. 16569–16572, doi:10.1073/pnas.0507655102, PMID 16275915, PMC 1283832 (freier Volltext), arxiv:physics/0508025.
  2. Falsche Forscheridentität – Kennen Sie Ike Antkare? taz.de, 3. März 2011.
  3. Der Hirsch-Index (Memento des Originals vom 23. September 2015 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis. (PDF-Datei; 23 kB).
  4. Interview mit Prof. Dr. Ludwig Winnacker: Für einen Artikel in Science tut man alles. (Nicht mehr online verfügbar.) Archiviert vom Original am 9. Januar 2019; abgerufen am 6. Januar 2019.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.
  5. Rowlands I: Is it time to bury the h-index? 28. März 2018, abgerufen am 9. Januar 2019.
  6. Batista P. D., Mônica G. Campiteli, Osame Kinouchi: Is it possible to compare researchers with different scientific interests? In: Scientometrics. 68. Jahrgang, Nr. 1, 2006, S. 179–189, doi:10.1007/s11192-006-0090-4.
  7. Antonis Sidiropoulos, Katsaros, Dimitrios and Manolopoulos, Yannis: Generalized Hirsch h-index for disclosing latent facts in citation networks. In: Scientometrics. 72. Jahrgang, Nr. 2, 2007, S. 253–280, doi:10.1007/s11192-007-1722-z.
  8. Jayant S. Vaidya: V-index: A fairer index to quantify an individual's research output capacity. In: BMJ. 331. Jahrgang, Nr. 7528, Dezember 2005, S. 1339–c–1340–c, doi:10.1136/bmj.331.7528.1339-c (bmj.com).
  9. D. Katsaros, A. Sidiropoulos, Y. Manolopous: Age Decaying H-Index for Social Network of Citations. In: Proceedings of Workshop on Social Aspects of the Web Poznan, Poland, April 27, 2007. 2007.
  10. T.R. Anderson, R.K.S Hankin, P.D. Killworth,: Beyond the Durfee square: Enhancing the h-index to score total publication output. In: Scientometrics. 76. Jahrgang, Nr. 3, 2008, S. 577–588, doi:10.1007/s11192-007-2071-2.
  11. C. Baldock, Colin G. Orton, Ma, R.M.S and Orton, C.G.: The h index is the best measure of a scientist's research productivity. In: Medical Physics. 36. Jahrgang, Nr. 4, 2009, S. 1043–1045, doi:10.1118/1.3089421, PMID 19472608, bibcode:2009MedPh..36.1043B.
  12. Nina Farwig, Christian Ammer, Peter Annighöfer, Bruno Baur, David Behringer: Bridging science and practice in conservation: Deficits and challenges from a research perspective. In: Basic and Applied Ecology. Band 24, November 2017, S. 1–8, doi:10.1016/j.baae.2017.08.007 (elsevier.com [abgerufen am 20. April 2022]).
  13. Einstein, Albert. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  14. Hawking, Stephen. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  15. Queloz, Didier. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 22. Mai 2021 (englisch).
  16. Drosten, Christian. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  17. Goodenough, John B. In: Scopus – Author details. Elsevier B.V., abgerufen am 27. Juni 2023 (englisch).
  18. Witten, Edward. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  19. Faucì, Anthony S. In: scopus.com. Scopus, abgerufen am 7. Mai 2021 (englisch).
  20. Baltimore, David. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  21. Evans, Ronald M. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  22. Croce, Carlo Maria. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  23. Mann, Matthias. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  24. Snyder, Solomon H. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  25. Whitesides, G. M. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  26. Langer, Robert Samuel M. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  27. Vogelstein, Bert. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  28. Grätzel, M. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.