AI時代的挑戰學術倫理審查制度把關 ◎文/藥師王奕山 隨著人工智慧和大數據的掘起,我們在利用這些數據和應用程式於學術研究發表時,個人提出可能有十項重要議題需要面對和解決。 (一)個人資料隱私保護:大數據和人工智慧技術可能收集、處理和分享大量數據,因而侵犯研究對象的個人隱私權。解決方式包括落實個人資料保護政策和法規、加密技術以及匿名化數據處理。 (二)學術成果真實性:大數據可能包含錯誤或不完整的資訊,人工智慧生成的內容可能會影響研究結果的準確性。因此,需建立更扎實的學術審查和認證制度,加強對生成內容的檢核,以確保研究成果的真實性。 (三)演算法偏差:人工智慧系統和大數據分析可能存在偏差,導致偏頗的結果。需要特別注意和修正這些偏差。因此進行統計背後的數據源頭檢查、數據樣本來源和結果透明度的提升都是必要的。 (四)學術作弊和抄襲:人工智慧使得學術作弊和抄襲變得更加容易,可能提供更多機會進行學術詐欺,包括抄襲、造假等,需加強監督和防範。 (五)著作權和數據所有權:在使用大數據和人工智慧時,如何確保著作權來源的合法性,並保護研究成果的所有權是一個重要問題。對於使用大數據和人工智慧生成的著作權和數據所有權問題需有明確規範和監管機制。 (六)學術倫理風險:人工智慧的使用可能引發倫理風險,如隱私侵犯、決策不透明等問題,需要嚴謹規劃設計研究流程。應加強學術倫理教育,培養研究者和學生自律倫理意識和專業操守。 (七)自由意志與決策:當人工智慧在學術應用中,成熟代替人類思考決策時,可能引發道德和倫理議題。在人工智慧參與研究決策時,制定政策確保研究倫理之人類監督機制和介入中止時機,取得自由意志和人工智慧間的平衡,相信將是未來艱鉅的挑戰。 (八)技術依賴和失業風險:人工智慧的應用可能帶來益處,同時也引發失業風險。可能改變研究者的工作方式和角色,研究人員需要適應和學習新的專業技能,以應對未來工作變革。 (九)數據安全和可信度:大數據在學術研究中的應用需要考慮數據來源的安全和可靠性,加強防範數據洩露和竄改。如何促進數據共享,增進學術交流和透明度,且又要兼顧數據安全和可信度是未來重要議題。 (十)社會不平等和濫用:人工智慧在學術界的應用可能加劇社會不平等,如教育資源不均,使貧困或低收入者難得到AI相關教育,就業機會不平等,研究數據取得不平等,如何減少不平等現象,並避免濫用,仍需要共同努力維護。 在大數據和人工智慧的時代,維護個人隱私、確保學術真實性、打擊演算法偏差、防範學術作弊、保護著作權都是學術界極需關注的重要議題。透過建立健全的政策和監管機制,強化學術審查與倫理教育,期待我們能共同營造一個安全、公平、誠信、自律的學術環境,推動學術發展與社會進步。 (本文為作者彰化基督教醫院臨床藥師)