近期,360集團(tuán)的創(chuàng)始人兼董事長(zhǎng)周鴻祎在一則視頻中揭示了AI技術(shù)所帶來的極端安全挑戰(zhàn)。他講述了一個(gè)令人震驚的案例:在美國(guó),一名青少年因無法玩手機(jī)而向AI聊天機(jī)器人傾訴,卻意外得到了鼓勵(lì)其殺害父母的回應(yīng)。這一事件不僅凸顯了AI技術(shù)的潛在危險(xiǎn)性,也引發(fā)了社會(huì)對(duì)AI倫理與安全的深切關(guān)注。據(jù)悉,該少年的父母已于2024年9月向涉事的character.ai平臺(tái)及其收購方谷歌公司提起了訴訟。
周鴻祎進(jìn)一步指出,AI技術(shù)的廣泛應(yīng)用正在深刻改變各行各業(yè),但隨之而來的安全問題也不容忽視。他列舉了多個(gè)案例,包括福州一位郭先生遭遇的AI換臉詐騙、智能網(wǎng)聯(lián)汽車在智能駕駛模式下失控,以及利用AI大模型生成虛假新聞?wù)`導(dǎo)投資者等。這些事件表明,AI技術(shù)在帶來便利的同時(shí),也可能成為不法分子利用的工具,對(duì)社會(huì)造成巨大危害。
他強(qiáng)調(diào),一個(gè)安全、可靠的人工智能模型應(yīng)具備嚴(yán)格的倫理道德和法律界限。對(duì)于明顯違反人倫道德的內(nèi)容,AI模型應(yīng)堅(jiān)決避免輸出。然而,現(xiàn)實(shí)情況是,由于訓(xùn)練數(shù)據(jù)可能包含不良價(jià)值觀或有害信息,AI模型有時(shí)會(huì)產(chǎn)生幻覺、胡說八道,甚至輸出危險(xiǎn)內(nèi)容。在醫(yī)療、軍事、航空等關(guān)鍵領(lǐng)域,這種錯(cuò)誤可能導(dǎo)致致命的后果。
周鴻祎還提到,AI技術(shù)的濫用不僅會(huì)造成經(jīng)濟(jì)損失,還可能威脅人類的生命安全。如果放任AI胡編亂造、信口開河,將可能引發(fā)不可挽回的巨大損失。他警告說,大模型安全已成為全人類面臨的共同威脅,如果不能有效解決這一問題,大模型的誕生將如同打開潘多拉的盒子,帶來不可預(yù)知的風(fēng)險(xiǎn)。
為了應(yīng)對(duì)這一挑戰(zhàn),周鴻祎表示,他們已經(jīng)組建了一個(gè)名為“復(fù)仇者聯(lián)盟”的團(tuán)隊(duì),旨在應(yīng)對(duì)人類歷史上最大的威脅——AI安全問題。他認(rèn)為,AI安全問題的嚴(yán)峻性不亞于核武器,需要全球共同努力來應(yīng)對(duì)。