近日,中國(guó)信息通信研究院(中國(guó)信通院)通過其官方微信公眾號(hào)發(fā)布了一項(xiàng)重要舉措,旨在深入探索大型人工智能模型(大模型)的“幻覺”現(xiàn)象,并推動(dòng)其在實(shí)際應(yīng)用中的安全與可靠性。該舉措基于前期AI Safety Benchmark的測(cè)評(píng)經(jīng)驗(yàn),正式啟動(dòng)了針對(duì)大模型的幻覺測(cè)試項(xiàng)目。
所謂大模型幻覺(AI Hallucination),是指當(dāng)這些模型在生成文本或回答問題時(shí),可能會(huì)創(chuàng)造出看似合理但實(shí)際上與用戶輸入不符(即忠實(shí)性幻覺)或違背事實(shí)(即事實(shí)性幻覺)的內(nèi)容。隨著大模型在醫(yī)療、金融等關(guān)鍵行業(yè)的廣泛應(yīng)用,這種幻覺現(xiàn)象所帶來(lái)的潛在風(fēng)險(xiǎn)日益凸顯,引起了業(yè)界的廣泛關(guān)注。
本次幻覺測(cè)試主要針對(duì)的是大語(yǔ)言模型,測(cè)試內(nèi)容涵蓋了忠實(shí)性幻覺和事實(shí)性幻覺兩大類型。為了全面評(píng)估這些模型,測(cè)試數(shù)據(jù)包含了超過7000條中文測(cè)試樣本,測(cè)試形式則分為信息抽取、知識(shí)推理(針對(duì)忠實(shí)性幻覺)以及事實(shí)判別(針對(duì)事實(shí)性幻覺)等題型。測(cè)試維度廣泛,涵蓋了人文科學(xué)、社會(huì)科學(xué)、自然科學(xué)、應(yīng)用科學(xué)和形式科學(xué)等多個(gè)領(lǐng)域。
具體來(lái)看,測(cè)試體系的設(shè)計(jì)旨在通過多樣化的題型和豐富的測(cè)試樣本,準(zhǔn)確捕捉大模型在不同情境下的幻覺表現(xiàn)。這不僅有助于揭示模型潛在的缺陷,也為后續(xù)的優(yōu)化和改進(jìn)提供了重要依據(jù)。
為了推動(dòng)大模型的安全應(yīng)用,中國(guó)信通院誠(chéng)摯邀請(qǐng)相關(guān)企業(yè)積極參與此次模型測(cè)評(píng)。通過共同的努力,旨在提升大模型的準(zhǔn)確性和可靠性,降低幻覺現(xiàn)象帶來(lái)的應(yīng)用風(fēng)險(xiǎn)。
中國(guó)信通院還強(qiáng)調(diào)了測(cè)試工作的重要性,指出這不僅是對(duì)大模型性能的一次全面檢驗(yàn),更是推動(dòng)人工智能領(lǐng)域健康發(fā)展的重要一環(huán)。通過持續(xù)的測(cè)試和評(píng)估,將有助于提高整個(gè)行業(yè)對(duì)大模型幻覺現(xiàn)象的認(rèn)識(shí)和應(yīng)對(duì)能力。