KhoahọcViệt.info

  • Increase font size
  • Default font size
  • Decrease font size

“Bảng xếp hạng Viện hiệu Scimago” và việc đánh giá chất lượng nghiên cứu khoa học ở Việt Nam

Sử dụng các bảng xếp hạng quốc tế làm thước đo đánh giá chất lượng giáo dục đại học hay nghiên cứu khoa học là một nhu cầu tất yếu không chỉ ở Việt Nam mà cả ở hầu hết các nước khác. Tuy nhiên, hiểu và sử dụng các bảng xếp hạng này sao cho hợp lí lại là một câu chuyện khác. Từ năm 2009, một bảng xếp hạng các đơn vị nghiên cứu khoa học (SIR) của nhóm nghiên cứu SCImago (Tây Ban Nha) đã ra đời và được công bố mỗi năm một lần. Năm 2011 có ba đơn vị Việt Nam được xếp hạng gồm Viện Khoa học và Công nghệ Quốc gia, Đại học Quốc gia TP. HCM và Đại học Quốc gia Hà Nội, với kết quả có vẻ như đi ngược lại những nhận định chung lâu nay về tình hình nghiên cứu khoa học trong nước. Chính điều đó mà không ít nhà quản lí khoa học và giáo dục Việt Nam cảm thấy ngần ngại và tỏ ra thận trọng đối với bảng xếp hạng này.

Trong bài này, tác giả phân tích khái quát bối cảnh ra đời và cơ sở phương pháp luận của bảng xếp hạng do SCImago xây dựng, từ đó rút ra những nhận định về ưu nhược điểm của bảng xếp hạng này, cũng như kiểm chứng tính chính xác của dữ liệu đối với ba đơn vị Việt Nam. Đồng thời, một số kết luận và khuyến nghị cũng được nêu ra nhằm hướng tới việc tổ chức và quản lí tốt hơn các hoạt động nghiên cứu và xuất bản khoa học.

Mục lục bài viết

Mở đầu

Trong những năm gần đây, đối diện với áp lực hội nhập ngày càng sâu rộng với nền giáo dục và khoa học toàn cầu, các nhà lãnh đạo giáo dục đại học Việt Nam không ngừng quan tâm đến các bảng xếp hạng về giáo dục và nghiên cứu khoa học, và có xu hướng muốn sử dụng các bảng xếp hạng này để làm thước đo mức độ thành công hay uy tín của hoạt động đào tạo và nghiên cứu của các trường, viện Việt Nam trên cả bình diện quốc gia lẫn quốc tế. Đây là nhu cầu tất yếu về mặt quản lí khoa học và giáo dục, không chỉ ở Việt Nam mà còn ở hầu hết các nước khác. Tuy nhiên, hiểu và sử dụng các bảng xếp hạng này sao cho hợp lí lại là một câu chuyện khác; và về mặt này, có thể có không ít thì nhiều những trường hợp hiểu sai hoặc lạm dụng, dẫn đến nhiều nhận định nhầm lẫn hoặc không xác đáng.

Khi “phong trào” xếp hạng đại học lên cao tại Việt Nam trong những năm 2009-2010, qua việc hệ thống hoá các vấn đề chính cần lưu tâm trong phương pháp tiến hành xếp hạng đại học cũng như mối liên hệ giữa xếp hạng và chất lượng giáo dục đại học, người viết đã từng khuyến nghị không nên xem vị trí xếp hạng như là tiêu chí thuần tuý số học xác định chất lượng của một trường đại học (Nguyễn Tấn Đại & Vũ Thị Phương Anh, 2011). Mới đây, một nhà khoa học gốc Việt ở nước ngoài (Nguyễn Văn Tuấn, 2012) lại có một bài phân tích mới, so sánh vị trí về năng lực nghiên cứu khoa học của hai trường đại học (thực chất không phải “trường” màthiết chế đại học) hàng đầu Việt Nam là Đại học Quốc gia Hà Nội (ĐHQG-HN) và Đại học Quốc gia TP. HCM (ĐHQG-HCM), dựa trên bản báo cáo năm 2011 của “Bảng xếp hạng Viện hiệu Scimago” (Scimago Institutions Ranking – SIR)1, để đi đến một kết luận “có thể xem ĐHQG-HCM là đại học số 1 của Việt Nam” (sic.).

Trước khi đánh giá lại lời nhận xét trên, chúng ta cần đặt lại một số câu hỏi: SIR đo lường cái gì? Phương pháp xác định tiêu chí định lượng và thu thập dữ liệu dựa trên cơ sở nào? Độ tin cậy và tính khách quan khoa học của các phương pháp đó được giới khoa học quốc tế bình luận ra sao? Để trả lời các câu hỏi này, chúng ta cần hiểu rõ bối cảnh ra đời của SIR, bắt nguồn từ...

... sự ra đời của các phương pháp đánh giá chất lượng nghiên cứu khoa học2

Phương pháp đo lường thông tin thư mục (bibliometrics) hay đo lường thông tin khoa học (scientometrics) được khai sinh kể từ khi Eugene Garfield đưa ra “chỉ số tác động” (impact factor – IF) năm 1955 và sau đó sáng lập Viện Thông tin Khoa học (Institute for Scientific Information – ISI). Trong suốt nửa thế kỉ, giới nghiên cứu khoa học toàn cầu hầu như chỉ lệ thuộc vào bộ cơ sở dữ liệu khổng lồ Science Citation Index (SCI – Chỉ mục Trích dẫn Khoa học) và về sau là Journal Citation Reports (JCR – Báo cáo Trích dẫn Tạp chí khoa học) của ISI để đo lường và đánh giá mức độ tác động hay uy tín của các nhà nghiên cứu và của các tạp chí khoa học. Chỉ số tác động của một tạp chí khoa học (Journal impact factor – JIF) được xây dựng dựa trên giả định rằng một tạp chí khoa học sẽ có uy tín cao, phạm vi tác động lớn khi các bài báo xuất bản ở đó được trích dẫn nhiều lần trong các bài báo khác của cùng hoặc khác tạp chí. Hai yếu tố cấu thành nên IF của một tạp chí bao gồm: 1. số lượt trích dẫn trong một năm của các bài báo do tạp chí này xuất bản trong hai năm liền trước đó; 2. tổng số bài báo do tạp chí này xuất bản trong cùng khoảng thời gian hai năm đó. Các bài báo được xét ở đây chỉ là các bài “trích dẫn được”, tức bài đăng kết quả nghiên cứu gốc (research article) hoặc bài tổng quan (review article). Tạp chí nào có IF càng cao thì càng có mức độ tác động lớn về mặt khoa học (Garfield, 1955, 1972, 2006; Wouters, 2006).

Tuy được sử dụng phổ biến và tham chiếu rộng rãi như vậy, JIF cũng đối mặt với rất nhiều lời phê bình vì có nhiều nhược điểm về phương pháp luận. Số tạp chí được đưa vào chỉ mục SCI/JCR có giới hạn, thiên lệch về ngôn ngữ (quá ưu tiên tiếng Anh) và chuyên ngành (quá ưu tiên cho các lĩnh vực khoa học tự nhiên và y sinh) và ít tạo cơ hội cho các tạp chí mới. Các tạp chí liên/đa ngành và các bài báo tổng quan thường chiếm ưu thế về số lượng trích dẫn do được tham khảo nhiều hơn. Đồng thời, khi tính toán JIF, người ta chú trọng số lượng trích dẫn chung của nhiều bài báo mà không quan tâm đến chất lượng của từng lượt trích dẫn cũng như của từng bài báo được đăng và/hoặc trích dẫn, cũng như không giải quyết rốt ráo tình trạng “tự trích dẫn” (tác giả trích dẫn lại các bài báo khác của chính mình). Mặt khác, khoảng thời gian tính số lượng trích dẫn quá ngắn, làm “mất điểm” các bài báo có phạm vi tác động lâu dài. Về mặt tài chính, chi phí sử dụng dữ liệu của ISI (nay thuộc Thomson Scientific) quá đắt đỏ, là rào cản cho các trường nhỏ hay các nước nghèo. Ngoài ra, còn tồn tại một nguy cơ “gian lận” đáng kể khi các nhà xuất bản vì chạy theo thành tích số học (để kiếm JIF cao) sẽ ưu tiên phát triển các ấn bản đa/liên ngành, giảm số lượng bài báo được duyệt đăng, khuyến khích tác giả viết bài tổng quan hoặc tự trích dẫn... (Académie des sciences, 2011; Durieux & Gevenois, 2010; Schöpfel & Prost, 2009). Đó là chưa kể nhiều vấn đề bất ổn hoặc sai sót khác của phương pháp đo lường thông tin thư mục do ISI áp dụng mà nhiều tác giả và tạp chí khoa học lớn đã từng lên tiếng cảnh báo (Colquhoun, 2003; Lawrence, 2003; Marder, Kettenmann, & Grillner, 2010; Moed, 2002; Ren, Zu, & Wang, 2002; s.n., 2002).

... đến những chỉ số khác thay thế hay bổ sung cho JIF

Chính vì JIF có nhiều nhược điểm như trên mà các nhà nghiên cứu đã không ngừng nỗ lực để đưa ra các loại chỉ số khác nhau để đánh giá xác thực hơn chất lượng của các ấn bản khoa học và nhà nghiên cứu. Trong số đó, thay vì chấp nhận thống kê số lượng trích dẫn từ bất cứ bài báo và tạp chí nào, một số nhóm nghiên cứu đã đề xuất các chỉ số khác dựa vào ý tưởng chủ đạo của thuật toán xếp hạng trang web (PageRank) của bộ máy tìm kiếm Google (Brin & Page, 1998): uy tín của một trang web không chỉ phụ thuộc số lượng đường dẫn vào (từ các trang web khác) mà còn tuỳ theo uy tín của các nguồn dẫn và số lượng đường dẫn ra (đến các trang web khác) của chính trang web đó.

Theo hướng này, Carl Bergstrom và các cộng sự tại Đại học Washington (Bergstrom, 2007; Bergstrom & West, 2008; Bergstrom, West, & Wiseman, 2008) giả định rằng hệ thống ấn bản khoa học là một mạng lưới các bài báo có trích dẫn lẫn nhau, và một lượt trích dẫn từ một tạp chí có uy tín sẽ mang lại giá trị cao hơn so với một tạp chí bình thường. Họ mô phỏng cách thức một nhà nghiên cứu bắt đầu chọn đọc một bài báo, sau đó lần lượt chọn tiếp một cách ngẫu nhiên một bài báo được trích dẫn trong bài vừa đọc để xem thêm, cứ thế lần lượt đến vô cùng, để từ đó tính được số lần mỗi tạp chí có bài được đọc, lập nên Eigenfactor. Chỉ số này lại được dùng để chia cho tổng số bài báo đã xuất bản của cùng tạp chí để tính ra một chỉ số khác: Article Influence (tầm ảnh hưởng bình quân theo bài báo). Với Eigenfactor, một tạp chí trích dẫn quá nhiều các tạp chí khác sẽ bị giảm điểm, qua đó phần nào khắc phục được tình trạng “ưu ái” cho các tạp chí đa/liên ngành và tình trạng tự trích dẫn. Nguồn dữ liệu của Eigenfactor cũng là JCR của ISI/Thomson Scientific, với khoảng thời gian thống kê là năm năm liền trước năm được tính điểm. Tuy có ưu điểm là quan tâm đến chất lượng của việc trích dẫn và dễ dàng truy cập tự do trên Internet, Eigenfactor vẫn còn hạn chế là không thể hiện được giá trị khoa học của tờ báo, cũng như có thể thay đổi nhiều tuỳ theo đặc thù và thói quen trích dẫn của từng chuyên ngành (Durieux & Gevenois, 2010).

Về bản chất, Eigenfactor của Bergstrom khởi nguồn từ ý tưởng phân biệt giữa các “tạp chí phổ biến” (popular journal) và “tạp chí uy tín” (prestigious journal) do Bollen và cộng sự (2006) đưa ra khi xây dựng Weighted PageRank (PRw – xếp hạng trang web có trọng số), cũng trên cơ sở thuật toán PageRank của Google. So sánh PRw với JIF trong bộ dữ liệu JCR năm 2003 đối với lĩnh vực vật lí, nhóm tác giả này nhận thấy những tạp chí có JIF cao thì PRw thấp (thuộc loại “phổ biến”) và ngược lại, tạp chí có JIF thấp thì PRw cao (thuộc loại “uy tín”). Dựa vào đây cũng như Eigenfactor, nhóm nghiên cứu SCImago (SCImago Research Group, gồm nhiều trường đại học Tây Ban Nha) bắt đầu xây dựng chỉ số SCImago Journal Rank (SJR) nhằm đo lường độ uy tín bình quân theo từng bài báo của các tạp chí khoa học mà không lệ thuộc vào quy mô của tờ báo (González-Pereira, Guerrero-Bote, & Moya-Anegón, 2010).

Điểm khác biệt đầu tiên của SJR là nguồn dữ liệu: Scopus của Elsevier thay vì JCR của ISI/Thomson Scientific. So với JCR, Scopus có số lượng tạp chí cao hơn rất nhiều, và tỉ lệ phân bổ chuyên ngành cũng cân đối hơn. Điểm khác biệt thứ hai, đó là khoảng thời gian trích dẫn được tính điểm: trong vòng ba năm liền sau năm được đăng (so với hai năm của JIF và năm năm của Eigenfactor). Điểm khác biệt thứ ba, đó là SJR giới hạn số lượt tự trích dẫn của mỗi tạp chí ở mức tối đa 33 %. Điểm khác biệt sau cùng, quan trọng về mặt phương pháp luận, đó là SJR trải qua hai lần chuẩn hoá: lần đầu là chuẩn hoá giữa số lần được trích dẫn thực tế (bởi một tạp chí) với số lượng trích dẫn tiềm năng (qua quan hệ “có thể trích dẫn được” giữa các tạp chí trong mạng lưới) để cho ra “chỉ số xếp hạng uy tín tạp chí khoa học” (Prestige SJR – PSJR); lần chuẩn hoá thứ hai là chia PSJR cho tổng số bài báo được đăng trên tạp chí đang xét trong cùng thời kì để xác định mức độ uy tín của tạp chí theo bình quân từng bài báo. Ngay sau khi ra đời, SJR đã nhận được sự hưởng ứng nhất định của giới nghiên cứu, vì với chủ trương cho truy cập dữ liệu tự do của SCImago Research Group, SJR có thể trở thành một đối trọng đáng kể của ISI/Thomson Scientific và JIF trong việc mở rộng các tiêu chí đo lường và đánh giá kết quả nghiên cứu khoa học; tuy nhiên, công thức tính toán phức tạp của SJR rất cần được cải thiện để có thể áp dụng được rộng rãi và dễ dàng hơn (Bornmann, de Moya-Anegón, & Leydesdorff, 2012; Falagas et al., 2008b; Leydesdorff, 2009).

Ngoài ra, do SJR chỉ mới thể hiện được mức độ uy tín tổng thể của tạp chí khoa học, một chỉ số khác được sử dụng kèm theo: h-index (Falagas et al., 2008a). Chỉ số h do Jorge E. Hirsch (Đại học California San Diego) đề xuất năm 2005, với giả định rằng một tác giả có tầm ảnh hưởng khoa học càng cao khi càng có nhiều bài báo được trích dẫn nhiều lần. Theo đó, một nhà nghiên cứu sẽ được gán chỉ số h nếu trong tổng số Np bài báo mà người đó đã xuất bản có h bài được trích dẫn ít nhất h lần/bài, và số còn lại (Nph) mỗi bài được trích dẫn ít hơn h lần (Hirsch, 2005).

... dẫn đến sự ra đời và phát triển của SIR

Trên cơ sở phát minh SJR để đánh giá mức độ ảnh hưởng và uy tín của các tạp chí khoa học trên toàn thế giới, SCImago (2009) đã tiến hành chọn lọc và biên tập dữ liệu từ Scopus để đưa ra bảng xếp hạng đầu tiên của mình trong bản báo cáo mang tên SCImago Institutions Ranking (SIR): 2009 World Report. Trong phiên bản đầu tiên này, SIR phân tích dữ liệu của hơn 2.000 tổ chức và viện nghiên cứu thuộc 84 quốc gia, mỗi đơn vị có xuất bản tổng cộng trên 100 bài báo trong năm 2007. Các đơn vị này thuộc năm nhóm: cơ quan nghiên cứu nhà nước, trường đại học, đơn vị y tế, tập đoàn nghiên cứu và các đơn vị khác. Năm chỉ số đánh giá bao gồm:

  1. Output (Thành quả): số bài báo đăng trên các tạp chí khoa học trong chỉ mục của Scopus trong khoảng thời gian năm năm 2003-2007, với các bài báo có nhiều tác giả thì mỗi đơn vị có tên sẽ được gán một mức điểm phù hợp;

  2. Cites per Document (CxD – Số lượt trích dẫn trên mỗi bài báo): tổng số lượt trích dẫn trên tổng số bài báo được đăng trong cùng thời kì;

  3. International Collaboration (Int. Coll. - Hợp tác quốc tế): số bài báo có hợp tác quốc tế trong cùng thời kì, tức các bài báo có ít nhất một đồng tác giả thuộc một đơn vị nước ngoài tại thời điểm xuất bản;

  4. Normalized SJR (Norm. SJR – SJR chuẩn hoá): bình quân chỉ số SJR của các tạp chí nơi đơn vị nghiên cứu có bài được đăng, nếu lớn hơn 1 nghĩa là nhìn chung các bài báo của đơn vị đó được đăng trên các tạp chí có tầm quan trọng trên mức trung bình trong lĩnh vực chuyên môn của mình, và ngược lại, nếu dưới 1 nghĩa là dưới mức trung bình;

  5. Field Normalized Citation Score (Norm. Cit. - Điểm trích dẫn chuẩn hoá theo lĩnh vực): chỉ số này do Karolinska Institutet nêu ra, nhằm xác định tỉ lệ giữa mức độ tác động khoa học bình quân của một đơn vị nghiên cứu với mức độ tác động bình quân của tất cả các bài báo trên toàn thế giới, trong cùng quãng thời gian và trong cùng lĩnh vực. Ví dụ một đơn vị nghiên cứu có chỉ số này là 0,9, điều đó có nghĩa là các bài báo của đơn vị này được trích dẫn ít hơn mức bình quân toàn cầu 10 %, nếu chỉ số là 1,2 tức là được trích dẫn nhiều hơn 20 % (Rehn, Kronman, & Wadskog, 2007).

Đáng lưu ý là mặc dù dùng đến năm chỉ số, SIR lại không quy tất cả về một giá trị chung để xếp hạng, mà vẫn xếp hạng theo tiêu chí đầu tiên, tức số lượng bài báo được đăng trên các tạp chí khoa học. Theo đó, trong bản báo cáo SIR đầu tiên này, ba tổ chức nghiên cứu quốc gia là CNRS (Pháp), Viện Hàn lâm Khoa học Trung Hoa và Viện Hàn lâm Khoa học Nga lần lượt chiếm ba vị trí đầu tiên (SCImago, 2009).

Đến phiên bản thứ hai, năm 2010, SCImago thay đổi một phần các chỉ số đánh giá, bằng cách loại bỏ hai tiêu chí CxDNorm. SJR để thay bằng tiêu chí High Quality Publications (Q1 – Bài báo chất lượng cao), tức tỉ lệ bài báo đăng trên các tạp chí có uy tín nhất trên thế giới. Đây là những tạp chí thuộc nhóm 25 % đầu tiên trong lĩnh vực của mình theo kết quả thu được từ SJR. Đồng thời, tiêu chí Norm. Cit. được đặt tên lại là Normalized Impact (NI – Tác động chuẩn hoá), và các tiêu chí khác được kí hiệu thống nhất: Ouput = O, Int. Coll. = IC. Cũng từ lần xếp hạng thứ hai, ngoài thứ hạng toàn cầu (World Rank – WR), SIR bắt đầu tính thêm thứ hạng khu vực (Regional Rank - RR) và thứ hạng quốc gia (National Rank - NR) của các đơn vị nghiên cứu. Ngoài ra, SIR cũng xây dựng các bảng xếp hạng phụ theo bốn nhóm ngành lớn, bao gồm Y khoa, Khoa học Sự sống, Khoa học Vật lí và Khoa học Xã hội & Nhân văn. Và điểm mới cuối cùng, đó là SIR bắt đầu “dán nhãn” Research Excellence (Chất lượng Nghiên cứu) cho các đơn vị được xếp hạng: xanh lá cây cho NI lớn hơn 1,75; vàng cho NI từ 1 đến 1,75; và đỏ cho NI dưới 1. Với quãng thời gian thống kê thông tin thư mục từ 2004 đến 2008, ba vị trí đầu bảng vẫn là những cái tên cũ, nhưng Viện Hàn lâm Khoa học Trung Hoa đã “soán ngôi”, đẩy CNRS xuống hạng thứ hai (SCImago, 2010).

Sang phiên bản thứ ba, cũng là mới nhất, năm 2011, SIR vẫn giữ nguyên tắc xét các đối tượng xếp hạng như ban đầu, nhưng có thêm hai tiêu chí mới được đưa vào. Từ đó, ngoài O, IC, NI và Q1, tiêu chí thứ năm của SIR là Specialization Index (SI/Spe – Chỉ số Chuyên hoá), tính toán dựa trên quy tắc tính chỉ số Gini trong kinh tế học, xác định mức độ tập trung hay phân tán của các bài báo được xuất bản, dao động từ 0 (hoàn toàn tổng quát hay đa ngành) đến 1 (hoàn toàn chuyên hoá theo chuyên ngành hẹp). Chỉ số thứ sáu là Excellence Rate (ER/Exc – Mức độ Xuất sắc), đo lường tỉ lệ các bài báo nằm trong nhóm 10 % các bài được trích dẫn nhiều nhất trong lĩnh vực tương ứng. Chỉ số này có nguồn gốc từ các phương pháp cải tiến các chỉ số đo lường thông tin thư mục vốn được dùng phổ biến nhưng còn nhiều hạn chế, do Bornmann và cộng sự phát triển (2012). Cũng từ phiên bản 2011, SIR chính thức tuyên bố mình không phải là một “bảng tranh hạng” (league table – ý nói đến các bảng xếp hạng với mục tiêu thi thố, tranh đua giành thứ hạng cao), và rằng thứ hạng mặc định sẽ được xếp theo tiêu chí thành quả đầu ra (tổng số bài báo được xuất bản), chứ đó không phải là mục tiêu xếp hạng của họ. Mục tiêu chính của bản báo cáo thường niên này là cung cấp kết quả phân tích chất lượng nghiên cứu khoa học ở nhiều khía cạnh khác nhau, giúp cho các viện hiệu, nhà hoạch định chính sách và nhà quản lí hoạt động nghiên cứu khoa học có nhiều thông tin đầy đủ và toàn diện hơn, cho phép đánh giá đúng đắn và cải thiện tốt hơn công việc của mình (SCImago, 2011). Với quãng thời gian thống kê dữ liệu là 2005-2009, nhóm thứ hạng đầu hầu như không thay đổi đáng kể so với năm 2010., và lần đầu tiên Việt Nam xuất hiện với ba đơn vị: Viện Khoa học và Công nghệ Việt Nam - VAST (WR = 1967, RR = 519, NR = 1), ĐHQG-HCM (thứ hạng tương ứng 2765, 720, 2) và ĐHQG-HN (2965, 775, 3), tuy rằng tính chính xác của các thứ hạng này sẽ được xem xét lại trong phần sau.

Những ưu điểm khiến SIR được quan tâm chú ý...

Dù chỉ mới ra đời được ba năm, nhưng SIR đã gây được sự chú ý trong cộng đồng khoa học thế giới và được nhiều trường đại học, viện nghiên cứu hay tổ chức khoa học quan tâm, nhất là những đơn vị được xếp ở thứ hạng cao (sic.). Nguyên nhân quan trọng nhất là do tinh thần khoa học nghiêm túc của SCImago trong việc phát triển các công cụ và phương pháp đo lường ở mức độ khách quan nhất có thể, tránh sự lệ thuộc quá lớn vào duy nhất một nguồn ISI/Thomson Scientific.

Như đã nói, việc SCImago lựa chọn cơ sở dữ liệu Scopus do Elsevier xây dựng đã tạo ra được một đối trọng cần thiết, do có ưu thế dù không hẳn là tuyệt đối về độ bao phủ và tính đại diện ở các khía cạnh địa lí, ngôn ngữ và lĩnh vực chuyên ngành. Điều này đã được nhiều nhà nghiên cứu thừa nhận rộng rãi (Bollen et al., 2009; Falagas et al., 2008a; Falagas et al., 2008b; Gingras, 2008; Leydesdorff, 2009).

Ưu điểm thứ hai, đó là với sự phân định chất lượng của các lượt trích dẫn thông qua nguồn trích dẫn như đã phân tích ở trên (thông qua chỉ số SJR), SIR đã lưu tâm thích đáng đến mức độ uy tín chung chứ không phải mức độ phổ biến của các tạp chí khoa học khi đánh giá chất lượng các bài báo, đồng thời hạn chế phần nào tình trạng thổi phồng con số bằng cách tự trích dẫn, hai đặc điểm vốn bị phê phán rất nhiều ở chỉ số JIF của ISI/Thomson Scientific (Falagas et al., 2008b; González-Pereira et al., 2010; Gingras, 2008; Schöpfel & Prost, 2009; Siebelt et al., 2010). Cũng trong xu hướng chú trọng chất lượng chung của các tạp chí khoa học, việc SIR sử dụng nhiều chỉ số có chuẩn hoá để giảm thiểu độ sai biệt theo thói quen trích dẫn hay đặc thù chuyên ngành như NI, Q1, SI và ER cho thấy rõ tinh thần khoa học hết sức nghiêm túc của SCImago, giúp bảng xếp hạng này dễ được tiếp nhận hơn trong giới nghiên cứu và có nhiều cơ hội để phát triển hoàn thiện thêm về sau (Bornmann et al., 2012; Falagas et al., 2008b; Leydesdorff, 2009; Schöpfel & Prost, 2009; Siebelt et al., 2010).

Ngoài ra, SIR còn có một số ưu điểm khác như không mang tính đua tranh thứ hạng (SCImago, 2011), sử dụng thông tin xếp hạng tạp chí khoa học (SJR) tự do qua mạng với quãng thời gian thống kê (tạm) đủ dài (ba năm) để ước lượng mức độ tác động của các bài báo (Falagas et al., 2008b; Leydesdorff, 2009), góp phần thêm trong sự thắng thế về mặt học thuật so với các phương pháp hay bảng xếp hạng vẫn dùng phổ biến khắp nơi hiện nay.

... và những hạn chế về phương pháp luận của SIR

Không phủ nhận những nỗ lực của SCImago trong việc tìm kiếm những giải pháp, những chỉ số cho phép khắc phục được các nhược điểm cố hữu của phương pháp đo lường thông tin thư mục hay đo lường thông tin khoa học từ bấy lâu nay, tuy nhiên cần thẳng thắn nhìn nhận những mặt còn hạn chế của SIR để một mặt biết cách sử dụng hợp lí các kết quả công bố hàng năm, mặt khác hiểu được sự cần thiết phải cải thiện thêm chính các phép đo lường, so sánh và xếp hạng trong nghiên cứu khoa học (và cả đào tạo đại học) trong tương lai.

Hạn chế đầu tiên của SIR cũng chính là một hạn chế căn bản mà hiện nay giới khoa học chưa có giải pháp nào khả dĩ và thuyết phục hơn: nguồn dữ liệu. Nếu như Scopus có một số mặt chiếm ưu thế rõ nét so với Web of Science như số lượng tạp chí, số quốc gia, số ngôn ngữ và tính đại diện chuyên ngành của các tạp chí khoa học được xuất bản, thì vẫn chưa đủ khả năng để bao quát rộng hơn nữa. Đặc biệt là một số lượng lớn các tạp chí chuyên ngành khoa học xã hội ở nhiều nước, hay các nguồn ấn phẩm chuyên khảo (đặc trưng của khối ngành khoa học xã hội và nhân văn là xuất bản rất nhiều sách chuyên khảo thay vì các bài báo đăng tạp chí), văn liệu xám (grey literature) và nhiều nguồn dữ liệu chuyên ngành chưa có chỗ đứng tương xứng so với mức độ đóng góp của các dạng ấn bản khoa học này đối với cộng đồng khoa học của quốc gia hay của lĩnh vực tương ứng. Đồng thời, có không ít những tạp chí khoa học danh tiếng có trong chỉ mục của Web of Science bị bỏ sót trong Scopus. Hơn nữa, do chỉ được xây dựng từ năm 2004 nên Scopus bỏ qua một lượng đáng kể thông tin quan trọng, trong đó số lượng trích dẫn chỉ được thống kê từ 1996 trở về sau (Académie des sciences, 2011; de Mesnard, 2012; Schöpfel & Prost, 2009).

Nhược điểm thứ hai về phương pháp luận là trong khi chú trọng nhiều đến chất lượng hay uy tín tổng thể của các tạp chí khoa học thì SIR lại chưa có tiêu chí xác đáng để đánh giá chất lượng của từng bài báo được đăng. Thật vậy, người ta thường dễ dàng lầm tưởng rằng hễ có bài báo đăng trên một tạp chí có điểm cao (dù là JIF, SJR hay bất cứ chỉ số nào khác) thì bài báo đó cũng có chất lượng cao. Trong khi, thực tế chứng minh có rất nhiều bài báo đăng trên các tạp chí uy tín chưa bao giờ hoặc rất hiếm khi được trích dẫn; thậm chí như một tạp chí rất uy tín là Nature lại có đến hơn 50 % số bài đăng từ 2008 chỉ được trích dẫn tối đa một lần, hay nhiều kết quả nghiên cứu quan trọng, trong đó có công trình đoạt giải Nobel Vật lí 2010, đã bị từ chối đăng trên Nature trước khi được duyệt đăng trên các tạp chí khác (Académie des sciences, 2011; Durieux & Gevenois, 2010; Lawrence, 2003; Marder et al., 2010). JIF mặc dù bị chỉ trích nhiều nhưng lại có sự rõ ràng trong việc định loại tầm quan trọng của thể loại bài báo “trích dẫn được” (chỉ bài tổng quan hay bài nghiên cứu); còn SIR thì ngược lại, chú trọng chất lượng chung của từng tạp chí nhưng bỏ qua yếu tố thể loại bài báo, tức tất cả các thể loại bài, kể cả những bài mang tính chất trao đổi ý kiến, bình luận, điểm sách,... đều có thể được tính điểm (de Mesnard, 2012; Falagas et al., 2008b; Schöpfel & Prost, 2009). Cả chỉ số mới nhất được đưa vào SIR là ER cũng chỉ mới nói lên được phần nào vấn đề chất lượng bài báo, khi thống kê một nhóm các bài báo được trích dẫn nhiều nhất trong số các bài được đăng, và dù hàm chứa nhiều triển vọng đo lường các yếu tố khác thì vẫn còn cần được cải thiện thêm nhiều về sau (Bornmann et al., 2012).

Nhược điểm thứ ba, do SIR dựa nhiều vào các nguồn thông tin đo lường thư mục (số bài báo, số lượt trích dẫn, mức độ uy tín hay phổ biến của tạp chí có bài đăng,...) thì cũng vướng vào trở ngại chung của giới khoa học từ nhiều năm nay: quy trình xuất bản phức tạp, dù có những điểm tích cực về mặt học thuật nhưng cũng phần nào tạo áp lực tiêu cực đối với giới nghiên cứu và giới xuất bản, và đặc biệt là trong vấn đề thương mại hoá không chỉ các tạp chí khoa học mà cả quyền truy cập vào các cơ sở dữ liệu khoa học. Thời gian chờ đợi gửi bài, nhận bài, bình duyệt (peer-review), chỉnh sửa, biên tập, duyệt đăng, chờ in,... thường kéo dài, tạp chí càng có uy tín thì thời gian chờ đợi càng lâu, có khi đến 1-2 năm. Có những khó khăn nảy sinh không phải vì nguyên nhân học thuật mà vì thủ tục hành chính của từng toà soạn, vì cách làm việc của các chuyên gia bình duyệt, và cả vì chủ trương, chính sách thương mại của nhà xuất bản... Tất cả những điều đó làm nảy sinh một xu thế xuất bản hay truy cập tự do (như Open Access, arXiv, HAL,...), chống lại sự độc tôn của các tập đoàn xuất bản thương mại cũng như sự biến tướng của thực tế sử dụng các chỉ số đo lường thông tin thư mục trong nghiên cứu khoa học, không chỉ ở các nhà tài trợ, các nhà hoạch định chính sách mà ngay cả bản thân các đơn vị nghiên cứu và các nhà khoa học (Académie des sciences, 2011; Colquhoun, 2003; de Mesnard, 2012; Gingras, 2008; Lawrence, 2003).

Ngoài những vấn đề còn tranh luận chưa ngã ngũ về phương pháp luận như trên, các dữ liệu thống kê đo lường thông tin thư mục còn hàm chứa nhiều sai sót chủ quan do chính con người gây ra. Trước tiên là tình trạng trích dẫn sai thông tin hoặc nhầm lẫn tên họ, mức độ nhầm lẫn có thể dao động từ 7 % đến 30 % (Durieux & Gevenois, 2010; Moed, 2002; s.n., 2002).

Thứ đến là sự nhầm lần về tên gọi đơn vị công tác của tác giả bài báo, một lỗi khá phổ biến trong mọi cơ sở dữ liệu và chỉ có người làm công tác xếp hạng mới có thể khắc phục phần nào một cách thủ công, nhưng không thể trọn vẹn, và thậm chí có những sai sót cực kì quan trọng (cụ thể là trong trường hợp ba đơn vị Việt Nam trong bảng xếp hạng SIR 2011 sẽ phân tích phía sau). Lỗi này xảy ra là do không có bất cứ một quy tắc phổ biến nào trong việc các tác giả ghi tên đơn vị công tác của mình trong các bài báo gửi đăng, bằng bản ngữ hay bằng ngôn ngữ xuất bản của tạp chí đăng bài. Thậm chí ngay cùng một đơn vị lại có thể có nhiều cách dùng tên gọi khác nhau, đặc biệt là khi dịch ra tiếng nước ngoài. Cũng như là, có người dùng tên đơn vị chủ quản trực tiếp nơi mình làm việc, nhưng cũng có người dùng tên những đơn vị chủ quản cấp cao hơn (nhưng đối với bên ngoài thì vẫn là một đơn vị được xếp hạng). Và về mặt này, hầu như chưa có bảng xếp hạng nào đủ khả năng bao quát được hết các đặc thù tổ chức hệ thống nghiên cứu khoa học và đào tạo đại học ở nhiều quốc gia khác nhau trên thế giới. Một cách cụ thể, với SIR, CNRS (Pháp) là một đơn vị xếp hạng, trong khi bản thân CNRS lại bao gồm rất nhiều viện và đơn vị nghiên cứu khác nhau với tính tự chủ khá cao, trong khi California State University (Hoa Kì) lại được tách ra thành sáu đơn vị xếp hạng riêng biệt. Sự lắp ghép hay tách rời một hay nhiều đơn vị đào tạo/nghiên cứu trong xếp hạng đại học hay xếp hạng nghiên cứu khoa học mang tính chất thuần tuý số học, không dẫn đến thay đổi đáng kể nào trong thực tế công việc, nhưng lại có sự khác biệt nhiều khi rất lớn trong vị trí trên các bảng xếp hạng (de Mesnard, 2012; van Raan, 2005).

Sai sót thủ công như trên không phải là ít, mà cụ thể là trong cả ba lượt xếp hạng đầu tiên của SIR. Đại học Strasbourg 1 (Pháp) năm 2009 được xếp hạng 402 với 5.486 bài báo, nhưng đến 2010 sau khi sáp nhập với hai trường khác trong cùng thành phố để tạo thành một trường duy nhất mang tên Đại học Strasbourg thì lại tụt xuống hạng 1.267 với chỉ 1.727 bài báo (sic.). Về mặt toán học, một quốc gia muốn có đơn vị được xếp hạng cao chỉ cần làm một động tác cộng gộp theo quy luật 80/20 thể hiện trên đường cong Lorenz (80 % đơn vị xuất bản 20 % tổng số bài báo – ở phần đáy đường cong; và ngược lại, 20 % đơn vị còn lại xuất bản 80 % tổng số bài báo – ở phần đỉnh đường cong): chọn hai trường cùng nằm ở phía đáy đường cong vì thứ hạng của đơn vị sau khi gộp lại sẽ thay đổi đáng kể, bởi nếu hai trường ở hai bên đường cong hay cả hai đều ở phía đỉnh đường cong thì thứ hạng cao nhất sẽ không thay đổi nhiều; nhưng thực tế thì từng nhà nghiên cứu và từng phòng thí nghiệm ở các đơn vị đó đều chắc chắn không thể có chất lượng nhảy vọt ngay sau khi cộng gộp! (de Mesnard, 2012).

Trường hợp Việt Nam trong SIR 2011

Như trên đã nói, trong bảng báo cáo năm 2011 của SIR (SCImago, 2011) có tên ba đơn vị nghiên cứu của Việt Nam, bao gồm VAST, ĐHQG-HCM và ĐHQG-HN. Tuy nhiên, số liệu và thứ hạng do SCImago công bố có nhiều điểm cần xem xét lại vì không chắc chắn chính xác.

Để kiếm chứng, người viết tiến hành truy vấn độc lập để xuất dữ liệu trực tiếp từ Scopus, với các công thức như trong Bảng 1.

Bảng 1. Công thức truy vấn dữ liệu đo lường thông tin thư mục từ Scopus
đối với các đơn vị Việt Nam có tên trong SIR 2011.

Công thức truy vấn

Ý nghĩa

Kết quả

(AFFIL(vietnam academy science) OR AFFILORG(vietnam academy science) OR AFFIL(vietnam center natural science technology) OR AFFILORG(vietnam center natural science

technology)) AND PUBYEAR > 2004 AND PUBYEAR < 2010

Các bài báo với ít nhất một tác giả có khai báo cơ quan công tác của mình là Viện Khoa học và Công nghệ Quốc gia (tên tiếng Anh là Vietnam Academy of Science and Technology) hoặc Trung tâm Khoa học Tự nhiên và Công nghệ Quốc gia (Vietnam Centre for Natural Science and Technology), từ năm 2005 đến năm 2009

173

(AFFIL(vietnam national university) OR AFFILORG(vietnam national university) OR AFFIL(vnu) OR AFFILORG(vnu) OR AFFIL(université nationale vietnam) OR AFFILORG(université nationale vietnam) AND AFFILCITY(ho chi minh)) AND PUBYEAR > 2004 AND PUBYEAR < 2010

Các bài báo với ít nhất một tác giả có khai báo cơ quan công tác của mình là Đại học Quốc gia TP. HCM (tên tiếng Anh là Vietnam National University Ho Chi Minh City, viết tắt VNU-HCM; tên tiếng Pháp là Université nationale du Vietnam à Hô Chi Minh-Ville) và địa chỉ tại TP. HCM, từ năm 2005 đến năm 2009

93

(AFFIL(vietnam national university) OR AFFILORG(vietnam national university) OR AFFIL(vnu) OR AFFILORG(vnu) OR AFFIL(université nationale vietnam) OR AFFILORG(université nationale vietnam) AND AFFILCITY(hanoi)) AND PUBYEAR > 2004 AND PUBYEAR < 2010

Các bài báo với ít nhất một tác giả có khai báo cơ quan công tác của mình là Đại học Quốc gia Hà Nội (tên tiếng Anh là Vietnam National University, viết tắt VNU; tên tiếng Pháp là Université nationale du Vietnam à Hanoi) và địa chỉ tại Hà Nội, từ năm 2005 đến năm 2009

403

Nguồn: Scopus, Elsevier B.V., ngày 10/07/2012.

Với mỗi lượt truy vấn, danh sách các bài báo được trích xuất ra với đầy đủ thông tin về cơ quan công tác do các tác giả khai báo, đồng thời với dữ liệu thống kê về số lượt trích dẫn và chỉ số h tương ứng trong khoảng thời gian 2005-2009. Các số liệu này được so sánh với số liệu do Scimago cung cấp trong bản báo cáo SIR 2011 (Bảng 2).

Bảng 2. So sánh dữ liệu xếp hạng của các đơn vị Việt Nam trong SIR 2011
với dữ liệu đo lường thông tin thư mục từ Scopus trong quãng thời gian 2005-2009.

Đơn vị

Số liệu theo SIR

Số liệu theo Scopus

Số bài báo

Chỉ số Q1

Chỉ số Exc

Số bài báo

Số lượt trích dẫn

Chỉ số h

VAST

1017

41,6

6,1

173

248

14

ĐHQG-HCM

569

26,9

7,2

93

428

16

ĐHQG-HN

414

32,9

5,3

403

1114

21

Nguồn: Scopus, Elsevier B.V., ngày 10/07/2012 và SCImago (2011).

Rõ ràng có thể nhận thấy một sự chênh lệch rất lớn giữa các số liệu thống kê được theo hai cách khác nhau. Tuy SCImago không công bố chi tiết cách thức họ đọc dữ liệu từ Scopus và gộp các đơn vị chủ quản của các tác giả, nhưng có thể phán đoán rằng quá trình này đã gây ra nhiều sai sót do lỗi nhận định chủ quan. Lí do là, hệ thống giáo dục đại học và nghiên cứu của Việt Nam hiện nay có rất nhiều điểm đặc thù mà người nước ngoài khó có thể hiểu rõ. Hệ thống các viện nghiên cứu thành viên của VAST, hay các trường và đơn vị nghiên cứu thành viên của hai ĐHQG có rất nhiều nhóm nghiên cứu khác nhau, không phải ai cũng khai báo tên đơn vị chủ quản của mình theo cùng một cách thống nhất. Đặc biệt, trong giao tiếp quốc tế, ĐHQG-HN lại dùng tên chính thức tiếng Anh của mình là Vietnam National University, trong khi ĐHQG-HCM là Vietnam National University Ho Chi Minh City. Nếu như các tác giả của ĐHQG-HN hầu như không ai thêm “đuôi” Hanoi vào, thì lại có khá nhiều tác giả của ĐHQG-HCM lại bỏ mất “đuôi” Ho Chi Minh City sau Vietnam National University. Rồi có người chỉ khai báo đến cấp trường thành viên hay đơn vị nghiên cứu trực thuộc ĐHQG, nhưng có người lại khai báo đến cấp khoa hay bộ môn; có người lại chỉ khai báo tên trường thành viên nơi mình trực tiếp làm việc, nhưng lại bỏ qua tên cấp chủ quản là ĐHQG. Nếu người này dùng university để chỉ tên trường thành viên thì gây khó hiểu cho người nước ngoài vì sao có university bên trong một university khác, còn người kia muốn tránh gây khó hiểu thì chuyển qua dùng college. Đến cấp khoa thì lúc này được gọi là faculty, lúc khác là department, lúc kia lại là school, v.v. Sự không nhất quán này là nguyên nhân chính dẫn đến việc số liệu sau khi chỉnh sửa của SIR sẽ khác rất xa với số liệu thống kê được trong Scopus, và không chắc chắn là ăn khớp được với thực tế. Vì vậy, ngay từ gốc của vấn đề, thứ hạng của ba đơn vị Việt Nam có tên trong SIR 2011 (và cả về sau) rất cần được xem lại.

Nhưng liệu có một cơ may nào cho ĐHQG-HCM vượt qua mặt ĐHQG-HN để đứng ở vị trí trường đại học hàng đầu Việt Nam? Để ước lượng, người viết đã kiểm chứng song song tại cơ sở dữ liệu Web of Science và với rất nhiều công thức tìm kiếm khác nhau, tổng số các bài báo có mang tên một trong hai ĐHQG của Việt Nam trong giai đoạn 2005-2009 cũng chỉ lên đến tối đa 430. Điều đó cho thấy số bài báo của các đơn vị Việt Nam do SIR công bố có một mức độ sai sót rất lớn so với thực tế. Còn nếu xét riêng quan hệ giữa hai ĐHQG với nhau, trong cả hai cơ sở dữ liệu Scopus và Web of Science, ở mọi giai đoạn, số lượng bài báo mang tên ĐHQG-HCM thống kê được cũng chỉ dao động trong khoảng 17-23 % so với ĐHQG-HN; biết rằng luôn có một xác suất sai sót thủ công trong việc sử dụng tên gọi đơn vị công tác của các tác giả khi đăng báo, cũng như còn một tỉ lệ nhỏ các bài báo bị sót tên do tác giả không khai báo (như trong dữ liệu Scopus 1996-2012, có 188 bài báo mang tên Đại học Khoa học Tự nhiên TP. HCM với tư cách một trường độc lập không phụ thuộc ĐHQG-HCM), nhưng có lẽ con số này không đủ lớn để đảo ngược vị trí giữa hai bên. Đây cũng là một bằng chứng thống kê số học cho thấy kết quả xếp hạng các đơn vị Việt Nam trong SIR 2011 là không chính xác.

Cũng trong mối liên hệ logic này, các chỉ số xác định chất lượng của các bài báo được công bố của ba đơn vị kể trên trong SIR 2011 (theo thứ tự giảm dần ĐHQG-HCM 7,2, VAST 6,1 và ĐHQG-HN 5,3) cũng không thể không xem xét lại, vì theo dữ liệu gốc chưa chỉnh sửa của Scopus (Bảng 2) thì tuy ĐHQG-HCM có bình quân số lần được trích dẫn của mỗi bài báo cao hơn ĐHQG-HN (4,6 so với 2,8), nhưng số bài được trích dẫn nhiều lần lại ít hơn (chỉ số h là 16 so với 21). Ngay cả khi giả định dữ liệu SIR 2011 là chính xác thì theo phương pháp tính toán mà Bornmann và cộng sự (2012) đề xuất để so sánh giữa hai đơn vị với nhau hay để đánh giá độ xuất sắc của một đơn vị, kết quả của cả hai ĐHQG đều không đạt được giá trị ý nghĩa đáng tin cậy.

Kết luận và khuyến nghị

Từ việc phân tích cơ sở phương pháp luận và nguồn dữ liệu của SCImago trong việc xếp hạng các đơn vị nghiên cứu trên toàn thế giới, người viết rút ra một số kết luận như sau:

  1. SIR do SCImago phát triển là một hệ thống xếp hạng năng lực nghiên cứu khoa học của các trường đại học hoặc các cơ quan có chức năng nghiên cứu trên toàn thế giới, với chủ đích cung cấp các chỉ số đo lường thông tin thư mục liên quan đến số lượng và chất lượng các ấn bản khoa học của mỗi đơn vị được công bố và thống kê trong cơ sở dữ liệu Scopus;

  2. Giống như mọi bảng xếp hạng khác dựa vào phương thức thống kê thông tin đo lường thư mục, SIR vẫn hàm chứa những sai sót mang tính thủ công hay chủ quan do không có một quy tắc bất di bất dịch nào đối với các nhà nghiên cứu khi khai báo thông tin cơ quan làm việc hay đơn vị chủ quản của mình trong các bài báo được đăng. Các sai sót này có thể nhiều hay ít tuỳ vào đặc thù ngôn ngữ và tổ chức hệ thống đào tạo và nghiên cứu ở mỗi quốc gia.

  3. Việt Nam vừa có số lượng và chất lượng xuất bản khoa học ở mức độ thấp so với thế giới vừa có sự phức tạp cao độ trong hệ thống tổ chức đào tạo và nghiên cứu, nên kết quả xếp hạng do SIR không thể đảm bảo tính chính xác, đặc biệt khi phương thức gộp thông tin xuất ra từ cơ sở dữ liệu gốc liên quan đến các đơn vị Việt Nam không được công bố chi tiết để kiểm tra tính xác thực của kết quả.

Tuy vậy, nhìn ở khía cạnh khác trong vấn đề xếp hạng và đánh giá năng lực nghiên cứu khoa học, SIR, các bảng xếp hạng khác hay bất cứ phương pháp và chỉ số đo lường thông tin thư mục nào cũng có tác dụng nhất định khi người dùng hiểu rõ bản chất của từng phương pháp và từng chỉ số nhằm có phương án sử dụng thích hợp cả về ngắn hạn lẫn dài hạn.

Theo đó, một mặt các nhà quản lí và hoạch định chính sách đào tạo-nghiên cứu không nên lệ thuộc một cách máy móc vào các chỉ tiêu định lượng, số học hoá kết quả nghiên cứu khoa học mà cần quan tâm thích đáng đến ý nghĩa chiều sâu của chất lượng (nếu có dịp người viết sẽ trình bày trong một bài viết khác), thì mặt khác cũng không nên “ngoảnh mặt làm ngơ” trước các con số “biết nói” này. Vì vậy, người viết cũng có một số khuyến nghị như sau:

  1. Có chính sách mạnh mẽ hơn nữa trong việc khuyến khích cán bộ, giảng viên thực hiện nghiên cứu và công bố kết quả trên các tạp chí khoa học cả trong nước lẫn quốc tế, bằng cách chú trọng đúng mức các chỉ số chất lượng trong đo lường thông tin thư mục, tránh lệ thuộc hay lạm dụng duy nhất vào một hay vài tiêu chí đơn lẻ, đặc biệt khi đó chỉ là những tiêu chí định lượng thuần tuý tính đếm.

  2. Đầu tư thích đáng cho việc nghiên cứu thống nhất và chuẩn hoá cách sử dụng tên gọi các đơn vị trong hệ thống tổ chức giáo dục và nghiên cứu, đặc biệt là trong giao tiếp quốc tế. Việc này tối ưu nhất là thực hiện ở cấp độ quốc gia, trong toàn hệ thống giáo dục và nghiên cứu, nhưng điều đó đòi hỏi đầu tư nhiều và lâu dài; trong ngắn hạn có thể bắt đầu trong phạm vi của riêng hai ĐHQG.

  3. Sau khi chuẩn hoá, mỗi cơ quan chủ quản ở cấp cao nhất trong giao tiếp quốc tế cần có hệ thống quy định chặt chẽ, nếu bắt buộc được càng tốt, trong việc khai báo thông tin (tên gọi, địa chỉ) của đơn vị công tác khi công bố kết quả nghiên cứu ở phạm vi quốc tế.

  4. Mỗi cơ quan chủ quản trong đào tạo và nghiên cứu cần xây dựng hệ thống quản lí khoa học đồng bộ, thống kê đầy đủ các công trình do cán bộ giảng viên của các đơn vị trực thuộc công bố trên các tạp chí quốc tế, nhằm tạo điều kiện thuận lợi cho việc kiểm tra đối chiếu thông tin khi cần thiết.

  5. Ở cấp độ quốc gia, rất cần thiết phải chấn chỉnh lại hệ thống xuất bản khoa học, thống nhất các quy tắc tổ chức căn bản trong nghiên cứu và công bố kết quả nghiên cứu, làm cơ sở để hình thành mạng lưới chia sẻ và thống kê thông tin đo lường thư mục quốc gia, với mục tiêu lâu dài là hoà nhập và chia sẻ được với mạng lưới các cơ sở dữ liệu thông tin đo lường thư mục quốc tế.

Tài liệu tham khảo

  1. Académie des sciences. (2011). Du bon usage de la bibliométrie pour l’évaluation individuelle des chercheurs. Paris, France: Institut de France.

  2. Bergstrom, C. (2007). Eigenfactor: Measuring the value and prestige of scholarly journals. College & Research Libraries News, 68(5), 314–316.

  3. Bergstrom, C. T., & West, J. D. (2008). Assessing citations with the EigenfactorTM Metrics. Neurology, 71(23), 1850–1851.

  4. Bergstrom, C. T., West, J. D., & Wiseman, M. A. (2008). The EigenfactorTM Metrics. The Journal of Neuroscience, 28(45), 11433–11434.

  5. Bollen, J., Rodriquez, M. A., & Van de Sompel, H. (2006). Journal status. Scientometrics, 69(3), 669–687.

  6. Bollen, J., Van de Sompel, H., Hagberg, A., & Chute, R. (2009). A principal component analysis of 39 scientific impact measures. PLoS ONE, 4(6), e6022.

  7. Bornmann, L., de Moya-Anegón, F., & Leydesdorff, L. (2012). The new Excellence Indicator in the World Report of the SCImago Institutions Rankings 2011. Journal of Informetrics, 6(2), 333.

  8. Brin, S., & Page, L. (1998). The anatomy of a large-scale hypertextual web search engine. Presented at the Seventh International World-Wide Web Conference (WWW 1998), Brisbane, Australia. Retrieved from http://ilpubs.stanford.edu:8090/361/.

  9. Colquhoun, D. (2003). Challenging the tyranny of impact factors. Nature, 423(6939), 479–479.

  10. de Mesnard, L. (2012). On some flaws of university rankings: The example of the SCImago report. The Journal of Socio-Economics, 41(5), 495–499.

  11. Durieux, V., & Gevenois, P. (2010). Bibliometric Indicators: Quality Measurements of Scientific Publication. Radiology, pp. 342–351.

  12. Falagas, M. E., Kouranos, V. D., Arencibia-Jorge, R., & Karageorgopoulos, D. E. (2008a). Comparison of SCImago journal rank indicator with journal impact factor. The FASEB Journal, 22(8), 2623–2628.

  13. Falagas, M. E., Pitsouni, E. I., Malietzis, G. A., & Pappas, G. (2008b). Comparison of PubMed, Scopus, Web of Science, and Google Scholar: strengths and weaknesses. The FASEB Journal, 22(2), 338–342.

  14. Garfield, E. (1955). Citation indexes for science: A new dimension in documentation through association of ideas. Science, 122(3159), 108–111.

  15. Garfield, E. (1972). Citation analysis as a tool in journal evaluation. Science, 178(4060), 471–479.

  16. Garfield, E. (2006). The history and meaning of the journal impact factor. Journal of the American Medical Association, 295(1), 90–93.

  17. González-Pereira, B., Guerrero-Bote, V. P., & Moya-Anegón, F. (2010). A new approach to the metric of journals’ scientific prestige: The SJR indicator. Journal of Informetrics, 4(3), 379–391.

  18. Gingras, Y. (2008). La fièvre de l’évaluation de la recherche. Du mauvais usage de faux indicateurs (p. 15). Montréal, Canada: Centre interuniversitaire de recherche sur la science et la technologie.

  19. Hirsch, J. E. (2005). An index to quantify an individual’s scientific research output. Proceedings of the National Academy of Sciences of the USA, 102(46), 16569–16572.

  20. Lawrence, P. A. (2003). The politics of publication. Nature, 422(6929), 259–261.

  21. Leydesdorff, L. (2009). How are new citation-based journal indicators adding to the bibliometric toolbox? Journal of the American Society for Information Science and Technology, 60(7), 1327–1336.

  22. Marder, E., Kettenmann, H., & Grillner, S. (2010). Impacting our young. Proceedings of the National Academy of Sciences, 107(50), 21233–21233.

  23. Moed, H. F. (2002). The impact-factors debate: the ISI’s uses and limits. Nature, 415(6873), 731–732.

  24. Nguyễn Tấn Đại, & Vũ Thị Phương Anh. (2011). Xếp hạng đại học và chất lượng giáo dục. Xếp hạng đại học, chất lượng giáo dục và hội nhập quốc tế (pp. 105–119). TP. HCM: Nhà xuất bản Đại học Quốc gia TP. HCM.

  25. Nguyễn Văn Tuấn. (2012, June 15). Hai đại học quốc gia TPHCM và Hà Nội: ai hơn ai? Blog Nguyễn Văn Tuấn. Retrieved from http://nguyenvantuan.net/education/3-edu/1519-hai-dai-hoc-quoc-gia-tphcm-va-ha-noi-ai-hon-ai.

  26. Rehn, C., Kronman, U., & Wadskog, D. (2007, August 22). Bibliometric indicators – definitions and usage at Karolinska Institutet. Karolinska Institutet. Retrieved from http://ki.se/content/1/c6/01/79/31/Bibliometric%20indicators%20-%20definitions_1.0.pdf

  27. Ren, S., Zu, G., & Wang, H. (2002). Statistics hide impact of non-English journals. Nature, 415(6873), 732.

  28. s.n. (2002). Errors in citation statistics. Nature, 415(6868), 101.

  29. SCImago. (2009). SCImago Institutions Rankings (SIR): 2009 World Report (No. 2009-003). Retrieved from http://www.scimagoir.com/pdf/sir_2009_world_report.pdf.

  30. SCImago. (2010). SCImago Institutions Rankings (SIR): 2010 World Report (No. 2010-002). Retrieved from http://www.scimagoir.com/pdf/sir_2010_world_report_002.pdf.

  31. SCImago. (2011). SCImago Institutions Rankings (SIR): 2011 World Report. Retrieved from http://www.scimagoir.com/pdf/sir_2011_world_report.pdf.

  32. Schöpfel, J., & Prost, H. (2009). Le JCR facteur d’impact (IF) et le SCImago Journal Rank Indicator (SJR) des revues françaises : une étude comparative. Psychologie Française, 54(4), 287–305.

  33. Siebelt, M., Siebelt, T., Pilot, P., Bloem, R. M., Bhandari, M., & Poolman, R. W. (2010). Citation analysis of orthopaedic literature; 18 major orthopaedic journals compared for Impact Factor and SCImago. BMC Musculoskeletal Disorders, 11(1), 4.

  34. van Raan, A. F. J. (2005). Fatal attraction: Conceptual and methodological problems in the ranking of universities by bibliometric methods. Scientometrics, 62(1), 133–143.

  35. Wouters, P. (2006). Aux origines de la scientométrie. Actes de la recherche en sciences sociales, 2006/4(164), 11–22.


Chú dẫn

1 Trong tiếng Anh, “institution” có nghĩa rất rộng, bao hàm cả các khái niệm “cao đẳng,” “đại học”, “học viện”, “viện đại học” (nhóm 1) và “trung tâm”, “viện nghiên cứu” lẫn một phần nào đó “viện hàn lâm” (nhóm 2) hiện dùng phổ biến trong tiếng Việt. Người viết tạm dùng các từ “học hiệu” cho nhóm 1; và “viện hiệu” cho cả hai nhóm, tức tương đương nghĩa với “institution” trong tiếng Anh.

2 Trong bài này, người viết không có tham vọng tổng hợp toàn bộ các phương pháp và chỉ số đo lường thông tin thư mục, mà chỉ tập trung vào các phương pháp và chỉ số liên quan mật thiết đến các bảng xếp hạng của SCImago.


Lời bình
Bình luận Tìm kiếm
Viết lời bình
Tên:
Điện thư:
 
Website:
Tựa:
UBBCode:
[b] [i] [u] [url] [quote] [code] [img] 
 
 
:D:):(:0:shock::confused:8):lol::x:P
:oops::cry::evil::twisted::roll::wink::!::?::idea::arrow:
 
Xin vui lòng nhập mã chống spam trong hình bên cạnh.

3.21 Copyright (C) 2007 Alain Georgette / Copyright (C) 2006 Frantisek Hliva. All rights reserved."

 

Tìm kiếm