--承上--
這一段探討了當前 AI 大型語言模型(LLMs)與人類在「真實性」(truth)和「似真性」(truthiness)上的區別,並強調了應對 AI 偽造內容的必要性。
AI 與真相:人工智慧的挑戰與應對
AI and Truth: Challenges and Countermeasures
#Prodia
當前 AI 大型語言模型(如 ChatGPT 和 GPT-4)與人類在追求真相的方式上有根本性的不同。它們的目標並非**「真相」(truth),而是「似真性」(truthiness)**。
The difference between current AI large language models—so-called things like ChatGPT and GPT-4—is that their goal is truthiness, not truth.
這些 AI 更像是**「歷史小說家」(historical fiction writers),而非「歷史學家」(historians)**,它們的工作方式更偏向於構造合理的敘事,而不是忠實記錄事實。
They are more like historical fiction writers than historians.
我們人類與AI不同之處在於,我們認真對待真相(take truth seriously),或許正因為如此,有時候才會刻意說謊。
We're different in that we take truth seriously—maybe because we want to lie.
然而,當前的 AI 大型語言模型(LLMs)並不具備**「有意識地撒謊」(lie on purpose)**的能力。
But LLMs (AIs) don’t yet really have the capacity to lie on purpose.
儘管如此,它們確實會生成**「錯誤資訊」(falsehoods),並將其廣泛傳播。從本質上來說,人類與 AI 之間的區別只是「程度上的不同」(difference of degree)**,而非根本性的差異。
They do formulate falsehoods that they then spread, and there’s only a difference of degree between us and them.
我們還不習慣這種技術,它不會主動尋求真相,而是向我們提供它認為合理的內容,而這可能與事實相去甚遠。
So, we’re not used to having our technology in a position to ignore the truth and just feed us what makes sense to them.
在其他領域,我們已經採取了強有力的技術措施來防範造假,例如,現代技術已經讓**「偽造鈔票」(counterfeit money)**變得極為困難,而識別假鈔則相對容易。
Technology has gone to great lengths to make it very hard to counterfeit money and quite easy to identify it.
同樣的道理,我們可以為所有數位設備(手機、電腦、平板)設計類似的系統,以識別 AI 生成的虛假內容。
So, we can do something similar for every phone, computer, and tablet.
每個數位裝置都可以內建一款軟體,能夠高效識別**「偽造人物」(counterfeit people)**,即那些 AI 生成的虛假身份或內容。
Every digital device can have software put in it, which will do a pretty darn good job of detecting counterfeit people.
這些設備可以自動拒絕接受這些內容,或者立即標示:「這是假的,這是騙局,請勿相信。」
It will not accept them or will brand it instantly: "This is fake. This is a hoax. Don't believe it."
然而,要實現這一點,我們需要**「法律」(laws)**的支持。
And in order to do that well, you have to have laws.
要制定這些法律,就必須有政府與立法機構來推動相關法規。
And in order to have laws, you’ve got to have governments and legislators that will pass the laws.
此外,立法者必須對 AI 技術有足夠的理解,以確保這些**「法律不會輕易被繞過」(laws that aren't easily circumvented)**,從而真正發揮作用。
And they have to know enough about what they're doing so they pass laws that aren't easily circumvented.
這是一項我們現在就應該開始推動的工作,因為它將決定未來數位世界的真實性與可信度。
This is something we have to work on now, and I think we need to work on it.
總結
這段內容強調了 AI 在「真相」問題上的挑戰,並指出:
1. AI 追求的是**「似真性」(truthiness),而非真正的「真相」(truth)**。
2. AI 目前不具備**「有意識地撒謊」(lie on purpose)的能力,但仍會生成並傳播「錯誤資訊」(falsehoods)**。
3. 針對 AI 生成的虛假內容,我們可以採取與防範**「偽造鈔票」(counterfeit money)**類似的技術手段來識別和標記。
4. 要有效應對這一問題,必須制定法律來監管 AI,並確保這些法律不會輕易被繞過。
這提醒我們,在 AI 時代,技術與法律必須雙管齊下,才能確保數位世界的真實性與可信度。
以下是本篇主要觀點的重點整理:
1. AI 追求「似真性」,而非真正的真理
當前的 AI,如 ChatGPT 和 GPT-4,更像是「歷史小說家」而非「歷史學家」,因為它們的目標是生成「看起來合理」的內容,而不是真實的資訊。
AI 並不具備真正的「謊言」能力,因為它們沒有意圖,但它們確實會產生並傳播錯誤資訊。
2. AI 內容與人類內容之間的區別正在縮小
AI 生成的錯誤資訊可能與人類的謊言相似,只是程度上的差異,而不是本質上的不同。
我們已經不習慣使用一種不在乎真相、只關注「合理性」的技術。
3. 防範 AI 偽造內容的必要性
現代社會已經對假鈔進行了嚴格防範,使其難以偽造、容易識別。同樣,我們應該為數位世界建立類似的防偽機制,以識別 AI 生成的「偽造人」(counterfeit people)或虛假內容。
可以透過軟體來標記 AI 生成的虛假內容,例如自動識別並標註「這是假的」或「這是惡作劇」。
4. 政府與立法的重要性
為了有效管理 AI 內容,必須制定法律,並確保立法者足夠了解 AI 技術,以避免制定容易被繞過的法律。
這項工作應該立即展開,以確保社會能夠有效應對 AI 帶來的挑戰。
這段話的核心觀點在於:AI 並不真正理解「真相」,我們需要技術與法律來防範 AI 生成的錯誤資訊,確保數位世界的可信度。
沒有留言:
張貼留言