經(jīng)濟(jì)導(dǎo)報記者 王偉
世界人工智能大會剛剛過去,“人形機(jī)器人的法治與倫理”是這屆大會的主題。在人工智能賽道成為科技競爭新高地、未來產(chǎn)業(yè)新引擎的當(dāng)下,人工智能商業(yè)化落地對監(jiān)管機(jī)制、隱私保護(hù)、數(shù)據(jù)安全、技術(shù)控制等提出了一系列法治和倫理挑戰(zhàn)。人工智能雖然前景廣闊,但安全是關(guān)鍵,還需要良法善治。
無論人工智能是否有實(shí)體形態(tài),都是基于大模型的智能能力,通過不同的應(yīng)用方式發(fā)揮作用,并基于感知、交互、運(yùn)動能力上的差異性,來處理不同類型的任務(wù)。因此,對大模型及具身智能的治理原則上是共通的,都需要良法善治和規(guī)則創(chuàng)新。
近年來,人工智能技術(shù)的不斷突破給人們的生產(chǎn)生活帶來了極大的便利,同時也衍生出超越以往范疇的安全問題。例如,人形機(jī)器人的外形與人類相近,在應(yīng)用場景中如何降低人類對機(jī)器人的反感和恐懼情緒?由人形機(jī)器人造成的經(jīng)濟(jì)損失如何歸責(zé),是機(jī)器人本身、制造商、用戶還是編程者?自動駕駛過程中出現(xiàn)的安全問題,該如何追責(zé)?
事實(shí)上,人工智能的安全問題已不是新話題。早在2018年,中國提出要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險研判和防范,確保人工智能安全、可靠、可控。此后,就人工智能安全治理問題,中國先后提出了《中國關(guān)于加強(qiáng)人工智能倫理治理的立場文件》《全球人工智能治理倡議》等一系列文件倡議;就加強(qiáng)人工智能的監(jiān)管,中國正式施行《生成式人工智能服務(wù)管理暫行辦法》。此次世界人工智能大會上,《人形機(jī)器人治理導(dǎo)則》正式發(fā)布,這是業(yè)界首個以開放簽署方式發(fā)布的人形機(jī)器人治理規(guī)則文件。
人工智能落地應(yīng)用性高,不同的落地場景有獨(dú)特的行業(yè)特點(diǎn),需要以包容審慎的態(tài)度,制定出符合實(shí)踐情況和推動發(fā)展的法律法規(guī),才能確保人工智能的健康發(fā)展。應(yīng)加快制定促進(jìn)人工智能發(fā)展為主的法律,關(guān)注和解決人工智能在解決問題過程中制造出來的新的問題。加強(qiáng)對人工智能等新業(yè)態(tài)新領(lǐng)域知識產(chǎn)權(quán)的司法保護(hù),維護(hù)創(chuàng)新主體合法權(quán)益,服務(wù)未來產(chǎn)業(yè)健康發(fā)展。
在通往人工智能時代的路上,除了大膽創(chuàng)新,還要確保人工智能不要走向失控。人工智能良法善治,方能前景可期。