Czynnik uderzenia - Impact factor

Impact factor ( IF ) lub impact factor czasopisma ( JIF ) o czasopiśmie naukowym jest naukometrycznych indeks obliczany przez Clarivate który odzwierciedla roczną średnią liczbę cytowań artykułów opublikowanych w ciągu ostatnich dwóch lat w danym czasopiśmie, jak indeksowane przez Clarivate w internecie Nauki . Jako metryka na poziomie czasopisma jest często używana jako wskaźnik zastępczy dla względnego znaczenia czasopisma w jego dziedzinie; czasopismom o wyższych wartościach Impact Factor nadaje się status ważniejszych lub bardziej prestiżowych w swoich dziedzinach niż te o niższych wartościach. Chociaż jest często wykorzystywany przez uniwersytety i instytucje finansujące do podejmowania decyzji o promocjach i propozycjach badawczych, ostatnio został zaatakowany za zniekształcanie dobrych praktyk naukowych.

Historia

Impact factor został opracowany przez Eugene Garfielda , założyciela Instytutu Informacji Naukowej (ISI) w Filadelfii. Współczynniki wpływu zaczęto obliczać corocznie począwszy od 1975 r. dla czasopism wymienionych w Journal Citation Reports (JCR). ISI została przejęta przez Thomson Scientific & Healthcare w 1992 roku i stała się znana jako Thomson ISI. W 2018 roku Thomson-Reuters wydzielił i sprzedał ISI na rzecz Onex Corporation i Baring Private Equity Asia . Założyli nową korporację Clarivate, która jest obecnie wydawcą JCR.

Obliczenie

W danym roku dwuletni współczynnik wpływu czasopisma jest stosunkiem liczby cytowań otrzymanych w danym roku za publikacje w tym czasopiśmie, które zostały opublikowane w dwóch poprzednich latach, do całkowitej liczby „cytowalnych pozycji” opublikowanych w tym czasopiśmie. w ciągu dwóch poprzednich lat:

Na przykład Nature miał współczynnik wpływu 41.577 w 2017 roku:

Oznacza to, że średnio jego artykuły opublikowane w 2015 i 2016 roku otrzymały około 42 cytowania w 2017 roku. Należy zwrócić uwagę, że 2017 czynniki wpływu zostały zgłoszone w 2018 roku; nie można ich obliczyć, dopóki wszystkie publikacje z 2017 r. nie zostaną przetworzone przez agencję indeksującą.

Wartość współczynnika wpływu zależy od tego, jak zdefiniować „cytaty” i „publikacje”; te ostatnie są często określane jako „elementy cytowalne”. W obecnej praktyce zarówno „cytaty”, jak i „publikacje” są definiowane wyłącznie przez ISI w następujący sposób. „Publikacje” to pozycje sklasyfikowane jako „artykuły”, „recenzja” lub „dokument z postępowania” w bazie danych Web of Science (WoS); inne pozycje, takie jak artykuły redakcyjne, poprawki, notatki, odwołania i dyskusje są wykluczone. WoS jest dostępny dla wszystkich zarejestrowanych użytkowników, którzy mogą samodzielnie zweryfikować liczbę cytowalnych pozycji dla danego czasopisma. Natomiast liczba cytowań jest pobierana nie z bazy danych WoS, ale z dedykowanej bazy danych JCR, która nie jest dostępna dla zwykłych czytelników. Stąd powszechnie stosowany „Współczynnik wpływu JCR” jest wartością zastrzeżoną, która jest definiowana i obliczana przez ISI i nie może być zweryfikowana przez użytkowników zewnętrznych.

Nowe czasopisma, które są indeksowane od pierwszego opublikowanego numeru, otrzymają współczynnik wpływu po dwóch latach indeksowania; w tym przypadku cytowania za rok poprzedzający tom 1 oraz liczba artykułów opublikowanych w roku poprzedzającym tom 1 są znane jako wartości zerowe. Czasopisma indeksowane począwszy od tomu innego niż pierwszy tom nie otrzymają współczynnika wpływu, dopóki nie zostaną zindeksowane przez trzy lata. Czasami Journal Citation Reports przypisuje współczynnik wpływu nowym czasopismom z indeksowaniem krótszym niż dwa lata, na podstawie częściowych danych dotyczących cytowań. Obliczenia zawsze wykorzystują dwie pełne i znane lata liczby pozycji, ale w przypadku nowych tytułów jedna ze znanych liczby wynosi zero. Roczniki i inne nieregularne publikacje czasami nie publikują żadnych pozycji w danym roku, co ma wpływ na rachubę. Współczynnik wpływu odnosi się do określonego okresu czasu; można go obliczyć dla dowolnego pożądanego okresu. Na przykład JCR uwzględnia również pięcioletni współczynnik wpływu , który jest obliczany poprzez podzielenie liczby cytowań czasopisma w danym roku przez liczbę artykułów opublikowanych w tym czasopiśmie w ciągu ostatnich pięciu lat.

Posługiwać się

Chociaż pierwotnie wynaleziono go jako narzędzie pomagające bibliotekarzom uniwersyteckim w podejmowaniu decyzji, które czasopisma kupić, czynnik wpływu wkrótce został wykorzystany jako miara oceny sukcesu akademickiego. To wykorzystanie czynników wpływu zostało podsumowane przez Hoeffela w 1998 roku:

Impact Factor nie jest idealnym narzędziem do pomiaru jakości artykułów, ale nie ma nic lepszego i ma tę zaletę, że już istnieje, a zatem jest dobrą techniką oceny naukowej. Doświadczenie pokazuje, że w każdej specjalności najlepsze czasopisma to te, w których najtrudniej jest o zaakceptowanie artykułu i są to czasopisma o wysokim współczynniku oddziaływania. Większość z tych czasopism istniała na długo przed opracowaniem współczynnika wpływu. Stosowanie Impact Factor jako miernika jakości jest powszechne, ponieważ dobrze pasuje do opinii, jaką mamy w każdej dziedzinie o najlepszych czasopismach w naszej specjalizacji... Podsumowując, prestiżowe czasopisma publikują prace na wysokim poziomie. Dlatego ich współczynnik wpływu jest wysoki, a nie odwrotnie.

Ponieważ czynniki wpływu są metryką na poziomie czasopisma, a nie metryką na poziomie artykułu lub jednostki, takie zastosowanie jest kontrowersyjne. Eugene Garfield, twórca JIF, zgodził się z Hoeffelem, ale ostrzegł przed „nadużywaniem oceny jednostek”, ponieważ „istnieje duża różnorodność [cytatów] w zależności od artykułu w jednym czasopiśmie”. Pomimo tego ostrzeżenia, wykorzystanie JIF ewoluowało, odgrywając kluczową rolę w procesie oceny poszczególnych naukowców, ich podań o pracę i wniosków o dofinansowanie. W 2005 r. The Journal of Cell Biology zauważył, że:

Dane o współczynniku wpływu … mają silny wpływ na społeczność naukową, wpływając na decyzje o tym, gdzie publikować, kogo promować lub zatrudniać, powodzenie wniosków o granty, a nawet premie płacowe.

Bardziej ukierunkowane badania zaczęły dostarczać mocnych dowodów na to, jak głęboko czynnik wpływu jest osadzony w formalnych i nieformalnych procesach oceny badań. W przeglądzie z 2019 r. zbadano, jak często JIF pojawiał się w dokumentach związanych z recenzowaniem, promocją i stażem pracy naukowców na amerykańskich i kanadyjskich uniwersytetach. Stwierdzono, że 40% uniwersytetów zajmujących się badaniami akademickimi wyraźnie wymieniło JIF jako część takich procesów przeglądu, promocji i kadencji. A badanie z 2017 r. dotyczące zachowań naukowców w naukach przyrodniczych wykazało, że „codzienne praktyki decyzyjne są ściśle regulowane przez naciski na publikowanie w czasopismach o dużym wpływie”. Głęboko zakorzeniony charakter takich wskaźników nie tylko wpływa na ocenę badań, ale bardziej fundamentalną kwestię tego, jakie badania są faktycznie podejmowane: „Biorąc pod uwagę obecne sposoby ewaluacji i wyceny badań, ryzykowne, długotrwałe i niekonwencjonalne projekty rzadko zajmują centralne miejsce”.

Krytyka

Pojawiło się wiele krytyki dotyczących wykorzystania czynników wpływu, zarówno pod względem ich trafności statystycznej, jak i ich implikacji dla sposobu prowadzenia i oceny nauki. W badaniu z 2007 r. zauważono, że najbardziej podstawową wadą jest to, że czynniki wpływu przedstawiają średnią danych, które nie mają rozkładu normalnego , i zasugerowano, że bardziej odpowiednie byłoby przedstawienie mediany tych danych. Toczy się również bardziej ogólna debata na temat ważności współczynnika wpływu jako miary ważności czasopisma oraz wpływu polityki, którą redaktorzy mogą przyjąć, aby zwiększyć swój współczynnik wpływu (być może ze szkodą dla czytelników i pisarzy). Inna krytyka skupia się na wpływie czynnika wpływu na zachowanie naukowców, redaktorów i innych interesariuszy. Inni formułowali bardziej ogólną krytykę, argumentując, że nacisk na czynnik wpływu wynika z negatywnego wpływu polityki neoliberalnej na środowisko akademickie. Te bardziej upolitycznione argumenty wymagają nie tylko zastąpienia czynnika wpływu bardziej wyrafinowanymi miernikami, ale także dyskusji na temat społecznej wartości oceny badań i rosnącej niepewności karier naukowych w szkolnictwie wyższym.

Brak możliwości zastosowania czynnika wpływu do osób i między dyscyplinami różnicowymi

Stwierdzono, że na czynniki wpływu i ogólnie na analizę cytowań mają wpływ czynniki zależne od pola, które unieważniają porównania nie tylko między dyscyplinami, ale nawet w obrębie różnych dziedzin badawczych jednej dyscypliny. Odsetek cytowań ogółem występujący w ciągu pierwszych dwóch lat po publikacji również jest bardzo zróżnicowany między dyscyplinami, od 1–3% w naukach matematyczno-fizycznych do 5–8% w naukach biologicznych. W związku z tym czynniki wpływu nie mogą być wykorzystywane do porównywania czasopism w różnych dyscyplinach.

Współczynniki wpływu są czasami wykorzystywane do oceny nie tylko czasopism, ale także zawartych w nich artykułów, co dewaluuje artykuły z niektórych tematów. W 2004 r. Rada ds. Finansowania Szkolnictwa Wyższego w Anglii została poproszona przez komisję ds. nauki i technologii Izby Gmin o przypomnienie panelom ds. oceny badań , że są one zobowiązane do oceny jakości treści poszczególnych artykułów, a nie reputacji czasopisma w które są publikowane. W innych badaniach wielokrotnie stwierdzano, że Impact Factor jest miernikiem dla czasopism i nie powinien być wykorzystywany do oceny poszczególnych badaczy lub instytucji.

Wątpliwe zasady redakcyjne, które wpływają na czynnik wpływu

Ponieważ czynnik wpływu jest powszechnie akceptowany jako wskaźnik jakości badań, niektóre czasopisma przyjmują politykę i praktyki redakcyjne, niektóre akceptowalne, a niektóre o wątpliwym celu, aby zwiększyć jego czynnik wpływu. Na przykład czasopisma mogą publikować większy odsetek artykułów przeglądowych, które zazwyczaj są cytowane częściej niż raporty badawcze. Badania przeprowadzone w 2020 r. w czasopismach stomatologicznych wykazały, że publikacje „przeglądów systematycznych mają istotny wpływ na współczynnik wpływu czasopisma… podczas gdy artykuły publikujące badania kliniczne nie mają wpływu na ten czynnik. Większa średnia roczna opublikowanych prac… oznacza wyższy czynnik uderzenia."

Czasopisma mogą również próbować ograniczyć liczbę „cytowalnych pozycji” – tj. mianownika równania współczynnika wpływu – albo przez odmowę publikowania artykułów, które są mało prawdopodobne, aby były cytowane (takie jak opisy przypadków w czasopismach medycznych) lub poprzez zmianę artykułów ( np. nie dopuszczając streszczenia lub bibliografii w nadziei, że Journal Citation Reports nie uzna go za „pozycję cytowalną”). W wyniku negocjacji dotyczących tego, czy pozycje są „cytowalne”, zaobserwowano wahania współczynnika wpływu wynoszące ponad 300%. Pozycje uważane za niecytowalne — a zatem nie są uwzględniane w obliczeniach współczynnika wpływu — mogą, jeśli są cytowane, nadal wchodzą do części licznikowej równania, pomimo łatwości, z jaką takie cytaty można by wykluczyć. Efekt ten jest trudny do oceny, ponieważ rozróżnienie między komentarzem redakcyjnym a krótkimi artykułami oryginalnymi nie zawsze jest oczywiste. Na przykład listy do redaktora mogą należeć do jednej z klas.

Inną, mniej podstępną taktyką, jaką stosują czasopisma, jest publikowanie dużej części swoich artykułów, a przynajmniej tych, które mają być wysoko cytowane, na początku roku kalendarzowego. Daje to tym artykułom więcej czasu na zebranie cytatów. Istnieje kilka metod cytowania artykułów z tego samego czasopisma, niekoniecznie z nikczemnymi intencjami, co zwiększa współczynnik oddziaływania czasopisma.

Oprócz zasad redakcyjnych, które mogą wypaczyć czynnik wpływu, czasopisma mogą podejmować jawne kroki w celu oszukania systemu . Na przykład w 2007 r. specjalistyczne czasopismo Folia Phoniatrica et Logopaedica , ze współczynnikiem wpływu 0,66, opublikowało artykuł wstępny, w którym cytowano wszystkie swoje artykuły z lat 2005-2006 w proteście przeciwko „absurdalnej sytuacji naukowej w niektórych krajach” związanej z używaniem współczynnik wpływu. Duża liczba cytowań oznaczała, że ​​współczynnik wpływu dla tego czasopisma wzrósł do 1,44. W wyniku podwyżki czasopismo nie zostało uwzględnione w raportach cytowań czasopism z lat 2008 i 2009 .

Przymusowe cytowanie to praktyka, w której redaktor zmusza autora do dodania obcych cytatów do artykułu, zanim czasopismo wyrazi zgodę na jego publikację, w celu zawyżenia współczynnika wpływu czasopisma. Badanie opublikowane w 2012 r. wskazuje, że przymusowego cytowania doświadczył co piąty badacz zajmujący się ekonomią, socjologią, psychologią i wieloma dyscyplinami biznesowymi, i jest on bardziej powszechny w biznesie i czasopismach o niższym współczynniku wpływu. Redaktorzy wiodących czasopism biznesowych zjednoczyli się, aby odrzucić tę praktykę. Jednak przypadki przymusowego cytowania były od czasu do czasu zgłaszane w innych dyscyplinach.

Zakładana korelacja między współczynnikiem wpływu a jakością

Współczynnik wpływu czasopisma (JIF) został pierwotnie zaprojektowany przez Eugene'a Garfielda jako wskaźnik mający pomóc bibliotekarzom w podejmowaniu decyzji o tym, które czasopisma warto indeksować, ponieważ JIF agreguje liczbę cytowań artykułów opublikowanych w każdym czasopiśmie. Od tego czasu JIF stał się kojarzony jako znak „jakości” czasopisma i zyskał szerokie zastosowanie do oceny badań i badaczy, nawet na poziomie instytucjonalnym. Ma zatem istotny wpływ na ukierunkowanie praktyk i zachowań badawczych.

Do 2010 r. krajowe i międzynarodowe instytucje finansujące badania zaczęły już wskazywać, że wskaźników liczbowych, takich jak JIF, nie należy traktować jako miernika jakości. W rzeczywistości badania wskazywały, że JIF jest wysoce zmanipulowaną metryką, a uzasadnieniem jej dalszego powszechnego stosowania poza pierwotnym wąskim celem wydaje się być jego prostota (łatwo obliczalna i porównywalna liczba), a nie jakikolwiek rzeczywisty związek z jakością badań.

Dowody empiryczne pokazują, że niewłaściwe wykorzystanie JIF – i ogólnie wskaźników rankingu czasopism – ma szereg negatywnych konsekwencji dla systemu komunikacji naukowej. Obejmują one luki między zasięgiem czasopisma a jakością poszczególnych artykułów oraz niewystarczający zakres nauk społecznych i humanistycznych, a także wyniki badań z całej Ameryki Łacińskiej, Afryki i Azji Południowo-Wschodniej. Dodatkowe wady obejmują marginalizację badań nad językami narodowymi i tematami lokalnymi oraz nakłanianie do nieetycznego autorstwa i praktyk cytowania. Mówiąc bardziej ogólnie, czynniki wpływu sprzyjają gospodarce reputacji, w której sukces naukowy opiera się na publikowaniu w prestiżowych czasopismach, wyprzedzając rzeczywiste cechy badawcze, takie jak rygorystyczne metody, powtarzalność i wpływ społeczny. Wykazano, że wykorzystywanie prestiżu czasopism i JIF do kultywowania zasad konkurencji w środowisku akademickim ma szkodliwy wpływ na jakość badań.

Szereg inicjatyw regionalnych i międzynarodowych dostarcza i sugeruje alternatywne systemy oceny badań, w tym kluczowe dokumenty, takie jak Manifest z Lejdy i Deklaracja z San Francisco w sprawie oceny badań (DORA). Plan S wzywa do szerszego przyjmowania i wdrażania takich inicjatyw wraz z fundamentalnymi zmianami w systemie komunikacji naukowej. Jako odpowiednie mierniki jakości dla autorów i badań, koncepcje doskonałości badawczej należy przemodelować wokół przejrzystych przepływów pracy i dostępnych wyników badań.

JIF są nadal regularnie wykorzystywane do oceny badań w wielu krajach, co stanowi problem, ponieważ wiele kwestii pozostaje związanych z nieprzezroczystością wskaźnika i faktem, że jest on często negocjowany przez wydawców.

Wynegocjowane wartości

Wyniki współczynnika wpływu mogą się radykalnie zmienić w zależności od tego, które elementy są uważane za „cytowalne”, a zatem zawarte w mianowniku. Jeden znany przykład miał miejsce w 1988 roku, kiedy zdecydowano, że streszczenia spotkań opublikowane w FASEB Journal nie będą już uwzględniane w mianowniku. Współczynnik wpływu czasopisma wzrósł z 0,24 w 1988 r. do 18,3 w 1989 r. Wydawcy rutynowo dyskutują z Clarivate, jak poprawić „dokładność” współczynnika wpływu swoich czasopism, a tym samym uzyskać wyższe wyniki.

Takie dyskusje rutynowo generują „wartości negocjowane”, które skutkują dramatycznymi zmianami w obserwowanych wynikach dziesiątek czasopism, czasami po niepowiązanych wydarzeniach, takich jak zakup przez jednego z pięciu największych wydawców .

Skośność rozkładu

Na czynniki wpływu czasopisma duży wpływ ma niewielka liczba często cytowanych artykułów. Generalnie większość prac opublikowanych w latach 2013–2014 uzyskała o wiele mniej cytowań niż wskazuje na to wskaźnik wpływu. Wykazano, że dwa czasopisma (Nature [niebieski], PLOS ONE [pomarańczowy]) reprezentują odpowiednio czasopismo wysoko i rzadziej cytowane. Należy zauważyć, że duży wpływ cytowania Natury pochodzi ze stosunkowo niewielu wysoko cytowanych artykułów. Zmodyfikowany po Callaway 2016.

Ponieważ rozkłady cytowań mają bardzo zniekształcony rozkład , średnia liczba cytowań jest potencjalnie myląca, jeśli zostanie użyta do pomiaru typowego wpływu artykułów w czasopiśmie, a nie ogólnego wpływu samego czasopisma. Na przykład około 90% Nature " impact factor 2004 oparta była tylko na jednej czwartej swoich publikacjach. W związku z tym faktyczna liczba cytowań pojedynczego artykułu w czasopiśmie jest w większości przypadków znacznie niższa niż średnia liczba cytowań wszystkich artykułów. Co więcej, siła związku między czynnikami wpływu czasopism a wskaźnikami cytowań zawartych w nich artykułów stale maleje, odkąd artykuły zaczęły być dostępne w formie cyfrowej.

Efekt wartości odstających można zaobserwować w przypadku artykułu „Krótka historia SHELX”, w którym znalazło się zdanie: „Ten artykuł może służyć jako ogólny cytat z literatury, gdy jeden lub więcej programów SHELX o otwartym kodzie źródłowym (oraz Bruker AXS wersja SHELXTL) są wykorzystywane w trakcie określania struktury kryształu”. Ten artykuł otrzymał ponad 6600 cytowań. W rezultacie współczynnik wpływu czasopisma Acta Crystallographica Section A wzrósł z 2,051 w 2008 r. do 49,926 w 2009 r., więcej niż w Nature (31.434) i Science (28.103). Drugi najczęściej cytowany artykuł w Acta Crystallographica Section A z 2008 roku miał tylko 28 cytowań.

Krytycy JIF twierdzą, że użycie średniej arytmetycznej w jej obliczeniach jest problematyczne, ponieważ wzorzec rozkładu cytowań jest wypaczony i zaproponowano metryki rozkładów cytowań jako alternatywę dla impact factor.

Pojawiły się jednak również prośby o przyjęcie bardziej zniuansowanego podejścia do oceny skośności rozkładu współczynnika wpływu. Waltman i Traag w swoim artykule z 2021 r. przeprowadzili liczne symulacje i doszli do wniosku, że „statystyczne zastrzeżenia do stosowania IF na poziomie poszczególnych artykułów nie są przekonujące” oraz że „IF może być dokładniejszym wskaźnikiem wartości artykuł niż liczba cytowań artykułu”.

Brak odtwarzalności

Chociaż bazowy model matematyczny jest publicznie znany, zbiór danych, który został użyty do obliczenia JIF, nie został publicznie udostępniony. To wywołało krytykę: „Tak jak naukowcy nie zaakceptowaliby wyników w pracy naukowej bez wglądu w dane pierwotne, tak samo nie powinni polegać na współczynniku wpływu Thomson Scientific, który opiera się na ukrytych danych”. Jednak artykuł z 2019 r. wykazał, że „przy dostępie do danych i dokładnym czyszczeniu można odtworzyć JIF”, chociaż wymagało to wiele pracy. Artykuł badawczy z 2020 r. poszedł dalej. Wskazał, że poprzez odpytywanie baz danych typu open access lub częściowo open access, takich jak Google Scholar, ResearchGate i Scopus, można obliczyć przybliżone współczynniki wpływu bez konieczności zakupu Web of Science / JCR.

Szerszy negatywny wpływ na naukę

Tak jak Impact Factor wzbudził krytykę z powodu różnych doraźnych problemów związanych z jego stosowaniem, tak też pojawiła się krytyka, że ​​jego stosowanie podważa szerszy proces naukowy. Badania wykazały, że dane bibliometryczne, w szczególności Impact Factor, obniżają jakość recenzowanego artykułu, niechęć do udostępniania danych, obniżają jakość artykułów i ograniczają zakres tego, co mogą badać. „Dla wielu badaczy jedynymi pytaniami badawczymi i projektami, które wydają się wykonalne, są te, które mogą sprostać wymaganiu dobrej punktacji pod względem wskaźników wydajności metryki – a przede wszystkim współczynnika wpływu czasopisma”. Co więcej, proces publikacji i nauki zostaje spowolniony – autorzy automatycznie próbują publikować w czasopismach o najwyższym Impact Factor – „ponieważ redaktorzy i recenzenci mają za zadanie recenzowanie artykułów, które nie są przesyłane do najbardziej odpowiednich miejsc”.

Instytucjonalne reakcje na krytykę Impact Factor

Biorąc pod uwagę rosnącą krytykę i szerokie zastosowanie jako środka oceny badań, organizacje i instytucje zaczęły podejmować kroki w celu odejścia od Journal Impact Factor. W listopadzie 2007 r. Europejskie Stowarzyszenie Redaktorów Naukowych (EASE) wydało oficjalne oświadczenie, w którym zaleca, aby „współczynniki wpływu czasopisma były wykorzystywane tylko – i ostrożnie – do mierzenia i porównywania wpływu całych czasopism, ale nie do oceny pojedynczych artykułów, a na pewno nie do oceny naukowców lub programów badawczych".

W lipcu 2008 roku Komitet ds. Wolności i Odpowiedzialności w Prowadzeniu Nauki (CFRS) Międzynarodowej Rady Nauki (ICSU) wydał „oświadczenie w sprawie praktyk publikacyjnych i wskaźników oraz roli recenzowania w ocenie badań”, sugerując wiele możliwych rozwiązań — np. rozważenie limitu liczby publikacji w ciągu roku, które należy wziąć pod uwagę dla każdego naukowca, lub nawet karanie naukowców za nadmierną liczbę publikacji rocznie – np. ponad 20.

W lutym 2010 r. Deutsche Forschungsgemeinschaft (Niemiecka Fundacja Badawcza) opublikowała nowe wytyczne mające na celu zmniejszenie liczby publikacji, które można złożyć przy ubieganiu się o dofinansowanie: „Nie skupiano się na tym, jakie badania ktoś przeprowadził, ale raczej na tym, ile artykułów zostało opublikowanych i gdzie ”. Zauważyli, że w przypadku decyzji dotyczących „przydziału środków finansowych w oparciu o wyniki, habilitacji, mianowania lub przeglądu wniosków o finansowanie, [gdzie] coraz większą wagę przywiązuje się do wskaźników liczbowych, takich jak wskaźnik h i współczynnik wpływu”. W Wielkiej Brytanii ćwiczenie oceny badań na 2014 r. również zabroniło stosowania współczynnika wpływu czasopisma, chociaż dowody sugerują, że zakaz ten był często ignorowany.

W odpowiedzi na rosnące obawy dotyczące niewłaściwego wykorzystania czynników wpływu czasopisma w ocenie wyników naukowych i samych naukowców, Amerykańskie Towarzystwo Biologii Komórki wraz z grupą redaktorów i wydawców czasopism naukowych stworzyło Deklarację San Francisco w sprawie oceny badań (DORA). Wydana w maju 2013 r. DORA zyskała poparcie tysięcy osób i setek instytucji, w tym w marcu 2015 r. Ligi Europejskich Uniwersytetów Badawczych (konsorcjum 21 najbardziej renomowanych uczelni badawczych w Europie), które poparły dokument dotyczący Strona internetowa DORA.

Wydawcy, nawet ci o wysokim współczynniku wpływu, również dostrzegli wady. Magazyn Nature skrytykował nadmierne poleganie na JIF, wskazując nie tylko na jego statystyczny, ale i negatywny wpływ na naukę: „Wynikające z tego naciski i rozczarowania są niczym innym jak demoralizującym, a w źle zarządzanych laboratoriach mogą zachęcać do niechlujnych badań, których na przykład nie można przetestować. dokładne założenia lub uwzględnienie wszystkich danych przed złożeniem dużych roszczeń." Różni wydawcy używają teraz w swoich witrynach różnych wskaźników; seria czasopism PLOS nie wyświetla współczynnika wpływu. Microsoft Academic miał podobny pogląd, stwierdzając, że współczynniki H-index, EI/SCI i wpływu czasopism nie są pokazywane, ponieważ „literatura badawcza dostarczyła wielu dowodów na to, że te metryki są w najlepszym razie przybliżonym przybliżeniem wpływu badań i wpływu naukowego”.

W 2021 r. Uniwersytet w Utrechcie obiecał porzucić wszystkie ilościowe bibliometrie, w tym współczynnik wpływu. Uniwersytet stwierdził, że „stał się bardzo chorym modelem, który wykracza poza to, co jest naprawdę istotne dla nauki i jej rozwoju”. Nastąpiło to po decyzji z 2018 r. podjętej przez główny holenderski organ finansujący badania, NWO , o usunięciu wszystkich odniesień do Journal Impact Factors i indeksu H we wszystkich tekstach zaproszenia i formularzach aplikacyjnych. Decyzja Utrechtu spotkała się z pewnym oporem. W liście otwartym podpisanym przez ponad 150 holenderskich naukowców argumentowano, że choć niedoskonały JIF jest nadal użyteczny, a jego pominięcie „prowadzi do przypadkowości i narażenia jakości naukowej na kompromis”.

Ściśle powiązane indeksy

Niektóre powiązane wartości, również obliczone i opublikowane przez tę samą organizację, obejmują:

  • Cytowany okres półtrwania : mediana wieku artykułów cytowanych w Journal Citation Reports każdego roku. Na przykład, jeśli okres półtrwania czasopisma w 2005 r. wynosi 5, oznacza to, że cytowania z lat 2001-2005 stanowią połowę wszystkich cytowań z tego czasopisma w 2005 r., a druga połowa cytowań poprzedza rok 2001.
  • Zagregowany współczynnik wpływu dla kategorii przedmiotowej: obliczany jest z uwzględnieniem liczby cytowań wszystkich czasopism w kategorii przedmiotowej oraz liczby artykułów ze wszystkich czasopism w kategorii przedmiotowej.
  • Indeks natychmiastowości : liczba cytowań, jakie artykuły w czasopiśmie otrzymały w danym roku, podzielona przez liczbę opublikowanych artykułów.
  • Wskaźnik cytowania czasopism ( JCI ): JIF, który dostosowuje się do dziedziny naukowej; jest podobny do wskaźnika Source Normalized Impact per Paper , obliczonego na podstawie bazy danych Scopus .

Podobnie jak w przypadku współczynnika wpływu, są w tym pewne niuanse: na przykład Clarivate wyklucza niektóre typy artykułów (takie jak wiadomości, korespondencja i errata) z mianownika.

Inne miary oddziaływania naukowego

Dodatkowe metryki na poziomie dziennika są dostępne w innych organizacjach. Na przykład CiteScore to wskaźnik dla tytułów seryjnych w Scopus wprowadzony w grudniu 2016 r. przez Elsevier . Chociaż te metryki dotyczą tylko czasopism, istnieją również metryki na poziomie autora , takie jak indeks H , które dotyczą poszczególnych badaczy. Ponadto metryki na poziomie artykułu mierzą wpływ na poziomie artykułu, a nie czasopisma.

Inne bardziej ogólne alternatywne metryki, czyli „ altmetrics ”, które zawierają widoki artykułu, pobieranie lub wzmianki w mediach społecznościowych , oferują inne spojrzenie na wpływ badań, koncentrując się bardziej na bezpośrednim wpływie społecznym i poza środowiskiem akademickim.

Fałszywe czynniki wpływu

Fałszywe czynniki wpływu lub fałszywe czynniki wpływu są wytwarzane przez określone firmy lub osoby. Zgodnie z artykułem opublikowanym w Electronic Physician , obejmują one Global Impact Factor (GIF), Citefactor i Universal Impact Factor (UIF). Jeffrey Beall prowadził listę takich mylących wskaźników. Inną oszukańczą praktyką jest zgłaszanie „alternatywnych współczynników wpływu”, obliczanych jako średnia liczba cytowań na artykuł przy użyciu indeksów cytowań innych niż JCR, nawet jeśli są one oparte na renomowanych źródłach, takich jak Google Scholar (np. „Współczynnik wpływu czasopisma oparty na Google”).

Fałszywe czynniki wpływu są często wykorzystywane przez drapieżnych wydawców . Skonsultowanie się z główną listą czasopism Journal Citation Reports może potwierdzić, czy publikacja jest indeksowana przez Journal Citation Reports. Używanie fałszywych wskaźników wpływu jest uważane za sygnał ostrzegawczy .

Zobacz też

Uwagi

Bibliografia

Dalsza lektura