隨著DeepSeek的發布及其在全球范圍內的爆火,AI再次成為大眾關注的焦點。當前,AI技術正以驚人的速度同經濟社會各領域融合,有力賦能新質生產力發展。然而,在技術快速進步的背后,換臉擬聲等深度偽造技術、算法歧視、自動決策系統濫用等亂象也開始凸顯。這些問題橫跨技術、法律、科技倫理和社會道德多重領域,AI作為新興產物,給治理和監管帶來了嚴峻挑戰,亟待以科技向善為原則進行規范引導。
加強宣傳教育,引導AI技術設計者、運營者和使用者思想向“善”。思想是行動的先導,培育正確的AI價值觀需要從認知層面筑牢根基。大力開展人工智能相關政策的宣傳推廣和人工智能素養的科普教育,通過持續的政策解讀與素養教育,提高設計者、運營者和使用者對算法歧視、自動決策系統濫用等危害的認識,提高自覺意識,增強自我保護能力,讓技術設計者堅守創新初心,運營者明晰社會責任,使用者增強辨別能力,才能在全社會凝聚“技術以人為本”的治理共識。
制定法律法規,引導AI技術設計者、運營者和使用者規范向“善”。法治是技術發展的底線保障,針對AI技術的特殊性,亟須構建專門化法律體系。國家網信辦等部門聯合發布了《生成式人工智能服務管理暫行辦法》,但無法全面涵蓋人工智能領域的各類問題和應用場景,亟待啟動立法研究并制定專門的人工智能綜合性法律。法律的剛性約束,如同給技術裝上“剎車系統”讓責任主體清晰界定,讓濫用行為付出代價,從制度層面確保技術創新在法治軌道上運行。2024年5月,國務院辦公廳印發《國務院2024年度立法工作計劃》,明確“預備提請全國人大常委會審議人工智能法草案”,一部具有綜合性、前瞻性的《人工智能法》正在制定。
強化道德約束,引導AI技術倫理向“善”。AI技術的自主性、不確定性和深度學習能力,在處理數據時可能繼承和放大現有的社會偏見,導致算法歧視問題。人臉識別技術、語音識別技術等深度偽造技術,可能被用于非法收集和識別個人信息,侵犯公民隱私權。技術的溫度源自道德的校準,建立專業化和制度化的倫理審查機制,包括技術開發前的倫理預評估、開發過程中的動態監督,以及應用階段的效果評估,確保人工智能技術的研發和應用符合倫理道德標準。當技術研發融入“情感”,讓算法學會“共情”,才能避免AI成為偏見的傳播器,真正成為促進社會公平的工具。
加大監管力度,引導AI技術賦能向“善”。安全是技術應用的基石,AI既帶來安全挑戰,也可以賦能網絡空間安全保障,為安全工作提供新工具。建立“AI安全沙箱”,對生成式AI服務實施實時風險監測。通過路徑隔離、權限管控等措施,防止數據泄露與惡意攻擊。“以技術治技術”的監管創新,既遏制了AI濫用的“暗礁”,又揚起了技術賦能的“風帆”,讓安全監管成為技術發展的護航者而非阻礙者。開展AI技術濫用整治,強化AI技術源頭治理,清理整治違規AI應用程序;集中清理相關違法不良信息,聚焦制作發布謠言、不實信息、色情低俗內容等突出問題。中央網信辦發布的2025年“清朗”系列專項行動明確提出整治AI技術濫用亂象。
只有以宣傳教育播撒向善的種子,以法律法規劃定行為的邊界,以道德倫理校準技術的方向,以安全監管筑牢發展的底線,才能真正把好AI技術的“方向盤”。唯有凝聚政府、企業、社會的共識,構建“法律有力度、倫理有溫度、治理有精度”的協同體系,才能讓AI技術始終行駛在服務人類文明的康莊大道上。
一審:孫紅春
二審:張政明
三審:范哲宣
來源:沅江新聞網
作者:嚴飛
編輯:張政明