?
投資 干貨 消費 評論 學(xué)院 滾動
風(fēng)投 科技 創(chuàng)業(yè) 業(yè)內(nèi) 要聞
科技圓桌派|AI狂飆必須嚴管?提防AI“變壞” 我們早有防備
發(fā)布日期: 2023-07-07 21:44:43 來源: 封面新聞

盡管生成式人工智能茁壯成長,但根據(jù)《生成式AI》報告,當前生成式AI市場處于技術(shù)主導(dǎo)的早期階段,存在千億美元市值的平臺性企業(yè)的機會。毫無疑問,人工智能可以加速科學(xué)技術(shù)創(chuàng)新進步、刺激生產(chǎn)力和經(jīng)濟增長,但技術(shù)的風(fēng)險不容忽視。


(資料圖片僅供參考)

那么,生成式人工智能在大幅解放生產(chǎn)力的同時,其所涉及到的安全、法律及倫理等問題應(yīng)當如何規(guī)范?7月7日,2023世界人工智能大會智能社會論壇上,“智能社會與數(shù)字治理生態(tài)”引發(fā)與會中外專家學(xué)者對這些問題進行深入探討,并發(fā)布了《人工智能大模型倫理規(guī)范操作指引》《生成式人工智能風(fēng)險評估框架(1.0)》等一批專題研究成果。

人工智能大模型必須處于人類監(jiān)督和控制之下

“大多數(shù)人工智能倫理原則和指南內(nèi)容是趨同和重疊的,說明對于核心的人工智能倫理原則,基本已經(jīng)取得了高度共識。但這些倫理原則如何落地實施,卻始終沒有較有力的措施?!毖芯繄F隊相關(guān)負責(zé)人、同濟大學(xué)人文學(xué)院特聘教授杜嚴勇表示,這也是嘗試探討人工智能大模型倫理規(guī)范操作指引的根本原因。“我們盡可能指向人工智能大模型技術(shù)特征以及可能的應(yīng)用場景,提高操作指引的針對性?!?/p>

據(jù)介紹,操作指引把重點放在了人工智能的研發(fā)環(huán)節(jié)。研究團隊認為,科研人員在人工智能倫理方面承擔(dān)著最為重要的道德責(zé)任。值得注意的是,操作指引著重強調(diào)了“人類”的監(jiān)督、控制和責(zé)任。

“我們認為可以在一定程度上使人工智能大模型的決策和人類利益和價值觀保持一致,這也是實現(xiàn)人工智能大模型安全性最為重要的方面?!倍艊烙抡f,“無論人工智能大模型的倫理再強大,畢竟還是擁有工具屬性。因此,我們一定要保證,在重大決策方面,‘人類’必須在決策環(huán)中。人工智能大模型必須處于人類監(jiān)督和控制之下?!?/p>

為此,操作指引提出,要通過完善責(zé)任內(nèi)容分配,形成責(zé)任閉環(huán),從而盡可能規(guī)避所謂的責(zé)任鴻溝和有組織的不負責(zé)任的現(xiàn)象。

面對技術(shù):先勇敢擁抱

有分析認為,雖然倫理審查短期內(nèi)會影響產(chǎn)品商業(yè)化的效率,但從長期來看,有助于人工智能行業(yè)可持續(xù)的健康發(fā)展,讓我國在這一領(lǐng)域形成可持續(xù)的全球競爭力。

清華大學(xué)智能社會治理研究院院長蘇竣從AI與環(huán)保角度切入舉例:“目前數(shù)字化與綠色化發(fā)展之間還存在夾角,如果處理得當,智能技術(shù)將在推動能源生產(chǎn)消費革命方面發(fā)揮巨大作用,大幅降低能源消耗和碳排放,有助于盡快實現(xiàn)‘雙碳’目標。反之,處理不當則可能帶來更多能源消耗和社會福利的損失,使社會陷入生態(tài)危機?!?/p>

北京大學(xué)人工智能研究院研究員沈體雁說,AI治理主要就是三個問題,把AI創(chuàng)好、把AI用好、把AI管好,“后兩方面,中國有絕對的優(yōu)勢。但在原始創(chuàng)新方面,我們還是有一些短板?!彼ㄗh,應(yīng)該給AI研發(fā)者一點空間,對他們有更多的包容,“盡量少管他們,隨便他們折騰。折騰出成果,再想辦法管理。”

“我們不能采取鴕鳥政策,更不能采取封堵政策,不要擔(dān)心技術(shù)不可控,就選擇不使用或者少使用?!碧K竣說,“科學(xué)技術(shù)的大門已經(jīng)打開了,應(yīng)該勇敢站到舞臺上去,采取積極治理措施去擁抱新技術(shù),全面加強基于chatgpt架構(gòu)的應(yīng)用?!?/p>

提防AI“變壞” 我們早有防備了

AI狂飆后,引發(fā)的倫理與法治危機自然成為焦點。實際上,對于AI倫理的“管束”,我們已經(jīng)在路上了。

日前,科技部公開征求對《科技倫理審查辦法(試行)》(以下簡稱《辦法》)的意見,其中明確提出,從事人工智能的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會,部分算法模型、自動化決策系統(tǒng)需要專家復(fù)核。

科技部本次發(fā)布的《辦法》提出,從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會。

此外,在《辦法》的附錄中還提到了“需要開展專家復(fù)核的科技活動清單”,其中包括:具有輿論社會動員能力和社會意識引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā);面向存在安全、人身健康風(fēng)險等場景的具有高度自主能力的自動化決策系統(tǒng)的研發(fā)。

事實上,在ChatGPT誕生之前,我國就已經(jīng)出臺與人工智能倫理的相關(guān)規(guī)范和標準。2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將倫理融入人工智能全生命周期,為從事人工智能相關(guān)活動的自然人、法人和其他相關(guān)機構(gòu)等提供倫理指引,促進人工智能健康發(fā)展。

但是,無論AI如何狂飆,科技之花究竟是善是惡,似乎難逃人類內(nèi)心的道德倫理規(guī)范。正如法國哲學(xué)家笛卡爾曾言:“杰出的人才固然能夠做出最大的好事,也同樣可以做出最大的壞事;行動十分緩慢的人只要始終循著正道前進,就可以比離開正道飛奔的人走在前面很多?!?/p>

關(guān)鍵詞:
24小時熱點 精彩推薦
資訊新聞
?