九九国产精品视频,色黄视频网站,国产3344视频在线观看,国产亚洲福利精品一区,国产高清福利91成人,国产一区二区三区福利,奇米色777

Hi,歡迎來到黃頁88網(wǎng)!
當(dāng)前位置:首頁 > 人工智能 > 堅(jiān)持緊抓人工智能規(guī)范發(fā)展

堅(jiān)持緊抓人工智能規(guī)范發(fā)展

互聯(lián)網(wǎng)時間: 2023-08-29 15:31:26

大模型的高速發(fā)展和滲透帶來生成式人工智能的廣泛應(yīng)用,形形色色的生成式人工智能插件在短短幾個月內(nèi)交互到了人類社會的生產(chǎn)生活中,引發(fā)新一輪智能化浪潮。正如數(shù)十年前計(jì)算機(jī)技術(shù)、互聯(lián)網(wǎng)革命引領(lǐng)了技術(shù)與生產(chǎn)方式的歷史性變革,生成式人工智能開始深刻地影響人們生活的方方面面。當(dāng)我們使用生成式人工智能高效搜索、生成文本、提高工作效率,當(dāng)我們感受訓(xùn)練聊天機(jī)器人的新鮮感,當(dāng)我們在文本之上使用圖像生成、音頻視頻生成,生成式人工智能的潛在風(fēng)險也在不知不覺中逐漸滲透。

科技創(chuàng)新的二元性歷來受到社會廣泛關(guān)注,從互聯(lián)網(wǎng)的數(shù)據(jù)隱私到智能機(jī)器人的道德倫理,再到生成式人工智能對于個人隱私的處理和引發(fā)潛在欺詐行為風(fēng)險,如何規(guī)范應(yīng)用值得我們深度思考。

用戶會給生成式人工智能工具提供個人、公司或所屬社會組織的非公開信息,模型獲得了這些數(shù)據(jù),便有可能在后續(xù)各類生成任務(wù)中泄露信息。過去擔(dān)憂手機(jī)APP等軟件在用戶未察覺時對其隱私進(jìn)行觀察和調(diào)用,而在生成式人工智能應(yīng)用場景中,亦存在隱私和信息泄露風(fēng)險。例如,生成式人工智能可以被用來創(chuàng)建背景豐富、看似來源可靠的信息,進(jìn)而誘導(dǎo)用戶點(diǎn)擊惡意鏈接或下載惡意軟件;可以塑造豐富立體的社交媒體形象,甚至模仿某人的聲音或外貌,引導(dǎo)造謠與詐騙;可以被訓(xùn)練為向特定用戶推薦誤導(dǎo)性內(nèi)容,或在某些情況下加強(qiáng)他們已有的偏見,等等。

生成式人工智能可處理海量數(shù)據(jù),但也給知識產(chǎn)權(quán)保護(hù)、個人隱私保護(hù)、打擊虛假信息等方面帶來新挑戰(zhàn)。積極推進(jìn)人工智能治理,法治與社會教育是促進(jìn)守正創(chuàng)新的兩大抓手。

一方面,營造安全有序的法治環(huán)境,規(guī)范生成式人工智能服務(wù)。為減少虛假信息的傳播,建議明確禁止或限制其在特定領(lǐng)域的使用。例如,批量化的虛擬形象創(chuàng)建和對話;為降低隱私泄露風(fēng)險,建議規(guī)定生成式人工智能使用個人數(shù)據(jù)時需經(jīng)用戶同意,確保數(shù)據(jù)隱私得到保護(hù),用戶有權(quán)決定哪些數(shù)據(jù)可以被使用,以及生成的內(nèi)容如何使用;為減少對社會公序良俗的破壞,建議嚴(yán)格限制仇恨言論、歧視性內(nèi)容創(chuàng)建??煽剂吭O(shè)立專門的機(jī)構(gòu)負(fù)責(zé)技術(shù)審查和認(rèn)證,評估生成式人工智能系統(tǒng)的安全性、可信度、倫理問題等。

同時,對于生成式人工智能系統(tǒng)出現(xiàn)問題時的法律責(zé)任和賠償機(jī)制,可考慮進(jìn)行系統(tǒng)設(shè)計(jì),對開發(fā)者、運(yùn)營商以及使用者的責(zé)任分配展開討論。本質(zhì)上,機(jī)器產(chǎn)生的任何行為都需要有主體負(fù)責(zé),而生成式人工智能能否以及如何界定責(zé)任主體,是一個重要而緊迫的問題。自動駕駛的技術(shù)發(fā)展、商業(yè)應(yīng)用和社會問題,為我們作出了可參考的探索。

另一方面,加強(qiáng)對公眾的教育與培訓(xùn)也至關(guān)重要。技術(shù)的風(fēng)險不僅來源于自身,也來自于不當(dāng)使用。如何讓公眾更好地理解技術(shù)、更明智地利用技術(shù),進(jìn)一步完善科技倫理體系,都需要強(qiáng)有力的社會教育作為支撐。要加強(qiáng)對公眾進(jìn)行教育和培訓(xùn),強(qiáng)調(diào)倫理和法律約束,以提高對這些潛在風(fēng)險的認(rèn)識;要增強(qiáng)用戶對倫理和法律問題重要性的認(rèn)識,特別是在生成內(nèi)容時,明白不應(yīng)該濫用工具;要鼓勵公眾充分了解生成式人工智能的邏輯和可解釋性、推斷和生成過程,鼓勵選擇更透明和可解釋的模型,以便更好理解生成內(nèi)容的來源和原理,不輕信在看似嚴(yán)肅的行文和環(huán)境中插入的各類信息和煽動性觀點(diǎn);要提醒用戶保護(hù)個人隱私和數(shù)據(jù)安全,不分享敏感信息尤其是機(jī)密信息;政府、行業(yè)、企業(yè)等相關(guān)各方應(yīng)加強(qiáng)風(fēng)險研判,有效防控人工智能的科技倫理風(fēng)險,進(jìn)一步加強(qiáng)行業(yè)自律,不斷推動科技向善、造福人類。

本文標(biāo)題: 堅(jiān)持緊抓人工智能規(guī)范發(fā)展

本文地址: http://www.maiyunbaodan.com/brand/news-6f3o35a7f6.html

內(nèi)容均來源于網(wǎng)絡(luò),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com

2009-2024 黃頁88版權(quán)所有 京ICP備2023012932號-1京公網(wǎng)安備 11010802023561號 京ICP證100626

內(nèi)容均來源于網(wǎng)絡(luò),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com