4月28日,北京大學計算機學院教授、北京智源人工智能研究院理事長黃鐵軍在第十七屆中國電子信息年會上發表演講時表示,“幻覺”是人工智能創造性的體現,人類要想創造比自身更強的智能體,就不要降低AI幻覺率,否則人工智能將與巨大的資源檢索庫無異。
所謂AI幻覺,指的是生成式人工智能模型產生的并非真實存在、不準確的信息。為降低AI幻覺產生概率、提升大模型準確率,當前產研界已推出存在多種不同的解決方案。
但在黃鐵軍看來,要認可大模型理解世界的能力,不能簡單地將AI幻覺“一棒子打死”,正是因為幻覺的產生才帶來了創新的可能性。與人類通過五感了解世界的方式不同,人工智能了解世界的方式是通過自然語言的語義關系,例如通過理解人類語言中詞與詞之間關系的遠近來理解人類語言。當神經網絡達到一定的規模,人工智能對不同概念的關系理解越來越豐富,便具備了生成內容的能力。
而AI生成的內容中不符合事實的情況,黃鐵軍認為不應該將其視為“幻覺”,他認為這是生成式人工智能的想象力。如果通過控制的方式使人工智能不具備想象的能力,那么所謂生成式人工智能就與人類巨大的資源檢索庫無異,也就不具備創造性了。
之所以要保留人工智能的創造性,是因為人類需要比自己更具創造力的智能體。他認為,人類的能力是有上限的,人類的智力存在天花板,但人類要想在廣闊的宇宙自然界生存,還有大量難以僅僅通過自身能力解釋和理解的問題,也需要人類所不能企及的想象力。
根據人工智能的智能能力,黃鐵軍將人工智能分成四種類型:專用人工智能、通用人工智能、自主人工智能和超人智能。其中專用人工智能被稱為“弱人工智能”,指完成特定智能任務或解決特定問題的人工智能,迄今出現的人工智能都是弱人工智能;通用人工智能是指人工智能所有方面都達到人類水平,能夠自適應地應對外界環境挑戰、自主完成所有任務的人工智能,即人類水平的人工智能;自主人工智能是指能夠自適應地應對外界環境挑戰的人工智能,也被稱為動物水平的自主人工智能;超人智能是指人工智能的各個方面都超越人類。
黃鐵軍說,《北京AI安全國際共識》在今年3月簽署,規定了人工智能的發展需要劃一條不可僭越的紅線,包含五個方面:第一是任何人工智能系統都不應在人類沒有明確批準和協助的情況下復制或改進自身;第二是任何人工智能系統都不能采取不當地增加自身權力和影響力的行動;第三是所有人工智能系統都不應提升其使用者的能力使其能夠設計大規模殺傷性武器,不得違反生物或化學武器公約;第四是任何人工智能系統都不能自主執行造成嚴重財產損失或同等傷害的網絡攻擊;第五是任何人工智能系統都不能有持續引導其設計者或監管者誤解其僭越任何前述紅線的可能性或能力。
而在人工智能不能僭越的紅線之外,黃鐵軍認為應該盡可能提升其智能能力。
發布日期: 2024-07-14
發布日期: 2023-11-29
發布日期: 2024-06-20
發布日期: 2024-07-10
發布日期: 2024-06-04
發布日期: 2024-09-30
發布日期: 2024-04-12
發布日期: 2023-07-04
發布日期: 2025-04-24
發布日期: 2025-04-24
發布日期: 2025-04-24
發布日期: 2025-04-24
發布日期: 2025-04-24
尋找更多銷售、技術和解決方案的信息?
廣州綠測電子科技有限公司(簡稱:綠測科技)成立于2015年11月,是一家專注于耕耘測試與測量行業的技術開發公司。綠測科技以“工程師的測試管家”的理念向廣大客戶提供專業的管家服務。綠測科技的研發部及工廠設立于廣州番禺區,隨著公司業務的發展,先后在廣西南寧、深圳、廣州南沙、香港等地設立了機構。綠測科技經過深耕測試與測量領域多年,組建了一支經驗豐富的團隊,可為廣大客戶提供品質過硬的產品及測試技術服務等支持。
技術工程師
020-22042442