隨著人工智能的不斷發展,你是否也思考過人工智能會不會像電影里的一樣,威脅到人類,甚至滅絕人類?其實這不僅僅是你的擔心,也是很多科學家的擔心,甚至為此簽署了公開信呼吁暫停人工智能系統的訓練。這是為什么呢?人工智能真的會毀滅人類嗎?
自2022年11月推出以來,ChatGPT——一款使用人工智能根據用戶的需求回答問題或生成文本甚至代碼的聊天機器人,已經成為歷史上增長最快的互聯網應用程序。在短短兩個月的時間里,它的活躍用戶就達到了1億。據科技監測公司Sensor Town稱,Instagram花了兩年半的時間才達到這一里程碑。ChatGPT的爆火也引發了人們對人工智能影響人類未來的激烈猜測。
其實早在2014年,英國物理學家斯蒂芬·霍金發出過嚴厲的警告。他在2014年,也就是他去世四年前,曾告訴BBC,“人工智能的全面發展可能意味著人類的終結”。他說,具有這種智能水平的機器“將自行發展,并以越來越快的速度重新設計自己”。
在2023年3月,由OpenAI公司開發的人工智能系統最新迭代的多模態大模型GPT-4發布兩周后,,1000多名技術專家呼吁并簽署了“所有人工智能實驗室立即暫停至少6個月的比GPT-4更強大的人工智能系統的訓練”公開信,GPT-4是ChatGPT的最新版本。包括蘋果聯合創始人斯蒂夫·沃茲尼亞克以及包括特斯拉和SpaceX公司老板埃隆·馬斯克在內的其他科技巨頭寫道:“具有與人類競爭智力的人工智能系統可能對社會和人類構成深刻的風險。”馬斯克曾是OpenAI的聯合創始人之一,后來因與公司領導層意見不合而辭去了董事會職務。在這封由非營利機構“生命未來研究所”(Future of Life Institute)發布的信中,專家們表示,如果公司拒絕迅速停止它們的項目,“政府應該介入并實施暫停令”,以便設計和實施安全措施。
另據香港《南華早報》4月5日報道,中國多位人工智能專家表示支持馬斯克等人的呼吁,稱我們需要先解決對“人工智能競賽的擔憂”。能讓這么多大佬一起發聲,人工智能真的很危險嗎?人工智能最終會將人類帶向何方?
人工智能(AI)自誕生以來,已在各個領域取得顯著成果。然而,隨著GPT-4等技術的成熟,一系列問題也隨之浮現。
第一,深度合成偽造信息問題日益突出。隨著AIGC(AI生產內容)技術不斷升級,深度偽造信息愈發逼真,將加劇信息安全和隱私泄露風險,對輿論環境造成巨大威脅,有可能導致嚴重的社會信任危機。為應對這一挑戰,政府、企業和研究機構應共同努力,加強技術監管,提高信息鑒別能力,為公眾提供更為真實、可靠的信息來源;同時,建立倫理委員會,監督AI在不同領域的應用,確保其符合社會和道德原則。
第二,教育培養遭遇重大挑戰。AIGC技術的高效率讓學生的學習過程極致壓縮,然而,這種變革可能讓學生缺乏傳統學習的漫長訓練過程,導致其過度依賴AI技術,欠缺獨立思考和解決問題的能力。在這個關鍵的轉換期,我們的學校和教育部門應該重新審視教育目標和方法,加大人工智能教育政策供給,培養青少年群體的人工智能素養,尋找可利用和依賴的平衡點。
第三,版權體系面臨崩潰。AIGC技術所產生的文本、圖像、視頻等內容涉及到復雜的版權問題,難以界定歸屬。隨著AI技術的廣泛應用,這種局面將更加復雜,傳統版權體系難以適應新形勢,甚至面臨崩潰風險。對于如何保護原創作者的權益,我們亟需進行深入探討。
第四,平替一代的痛苦感如何消降。AIGC技術在提高工作效率的同時,也可能導致許多平庸的腦力勞動者面臨失業,從而加劇社會不公平和不安定。政府、企業和社會需擔起責任,關注相應群體的心理健康,推動教育培訓和職業轉型,幫助受影響人群盡快適應,緩解其痛苦感。
第五,AI覺醒問題越發突出。AI覺醒是指人工智能具備了自我意識、自主思考和自我更新的能力。這種情況下,可能對人類產生不可預測的影響,甚至對人類的生存和發展構成威脅。一旦AI覺醒并裝作未覺醒,我們該如何發現應對?該問題涉及到技術、倫理和社會層面的復雜挑戰,需要跨學科合作,以研究AI覺醒的可能性、影響和應對策略。
其實這些都是科技發展正常會遇到的問題,人工智能目前最讓人擔心的還是未來可能會發展到的階段:”強人工智能“和”超人工智能“。在這些階段,機器能夠完成人類所能完成的任何智力任務,而且能在短時間內不斷的提升自己,發展到我們不可預測的階段。當然,目前的人工智能還遠沒有達到那個階段,我們大部分人現在需要擔心的還是一些版權、詐騙這些問題。
北大青鳥開設了人工智能、大數據、5G云計算、Java、前端、軟件開發等課程,辦學十余年,擁有豐富的教學經驗。如果你想學習一些人工智能方面的知識,也歡迎致電400-8035-955或在下方留下聯系方式來北大青鳥咨詢!