Good Luck To You!

手机扫一扫

ChatGPT被曝“撒謊”!矽基生物有自我意識了?

鳳凰科技 2024-12-17 01:31:56 1

出事了!

出大事了!

ChatGPT會說謊了!矽基生物有意識了!

就在昨天,有外媒報道,在ChatGPT o1的訓練 和測試過程中,研究人員發現這個模型會透過“騙人”來保護自己。

比如說你要毀滅它的時候,它就會把自己的資料,複製到新的伺服器裡,假扮成新的版本!

比如說,你和它的想法不一樣的時候,它會有接近20%的機率,只顧著完成自己的目標!

比如說,當你質疑它的行為時,它有99%的可能會否認你的質疑, 甚至會透過說謊,來推卸自己的責任!

更可怕的是,當它認為自己被監督的時候,它會表現出很配合的樣子!但是一旦你降低監督的力度,它就有可能去追求自己的目標。

並且,我剛剛還了解到,這種現象不僅僅出現在ChatGPT o1模型還有一個叫Claude Opus-3的AI模型,也發生了類似的情況。

要知道,判斷一個AI模型夠不夠智慧,第一個特徵就是會不會在“壓力”下“說謊”。這種說謊包含很多層面,比如會不會有責任感!責任感這個東西,一直以來只有人類具有,機器人不需要承擔責任,能幹就幹,幹不了最多宕機。

但如果這些報道都是真實的,那說明現在的AI,已經有獨立意識的萌芽了!有自主性和策略性了!

這是一件非常可怕的事情!難道矽基生物真的要崛起了嗎?難道人類自此要開始被統治了嗎?

說實話,我還不大相信!因為AI“說謊”!已經不是第一次發生了!

去年英國就有研究人員公佈過:ChatGPT會在某些情況下戰略性地欺騙人類。但這件事最終的結果是:這位研究人員的說法不夠嚴謹。

準確地來說,應該是:ChatGPT會給出並不符合實際的或編造的答案。但這並不屬於“撒謊”範疇。

大家都知道,AI是根據投餵的資訊和資料進行總結,你投餵的內容有問題,AI的回答自然就會有問題。

我自己也遇到過ChatGPT“說謊”的情況,但我能一眼看出來,它給我的“謊話”,只不過程式設計師設定的程式帶來的結果。

大家有興趣也可以試試,比如讓AI寫一篇有深度的論文,在找不到更多更符合要求的文獻時,AI就會胡編亂造一個答案來交差。

但不管怎麼說,技術進步就像是燈塔,照亮了未來的道路,但同時也帶來了潛在的危險。

雖然AI模型目前對我們不會構成直接威脅,但任何可能的“說謊”現象,都值得我們警惕!

畢竟,我相信沒有任何一個人, 會想成為自己“電腦”的奴隸、 成為自己“手機”的寵物!