🔍追求否定意見,降低犯錯風險

你也知道 AI 常常會提供「幻覺」。讓我告訴你,怎樣有效利用它的知識,但不被騙。

你可能遇過一些人用 ChatGPT 上癮,事事參考 AI 的意見,甚至信奉為真理。我認為,當一個人說:「ChatGPT 沒有否定我的意見」,比另一個人說:「ChatGPT 同意我的意見」,顯得更有智慧。

你也知道 AI 常常會提供「幻覺」。讓我告訴你,怎樣有效利用它的知識,但不被騙。

熟悉領域 vs 陌生領域的錯覺

許多人在使用 AI 工具時,都會有一種「感覺」:我不熟悉的東西,AI 好像很厲害;我懂的東西,AI 就不行了。

這個現象的原因很單純:只有足夠的知識,我們才能做出正確的判斷。那種 AI 在陌生領域「很厲害」的感覺,其實只是錯覺。

既然這樣,我們如果拿 AI 工具來學習、來確認一些事情,就很容易被誤導。其實同樣的情況不僅限於 AI,毫無保留地接受他人意見,也很容易被騙。

波普爾的否證啟發

哲學家卡爾·波普爾反對「從觀察到歸納」的求知方法,提出「否證」的概念。他認為:再多的證據都無法歸納出真理,因為你還沒有看到特例。

比如說,「綿羊都是白色」這句話,是因為你沒見過其他顏色的綿羊,不代表這句話就是 100% 正確。

所以,他的做法是:雖然我們永遠無法得到真理,但是可以用相反的例子,來「逼近」真理。每見到一隻白色綿羊,都可以讓「綿羊都是白色」這句話的正確度更接近 、但永遠無法達到 100%。

日常應用的策略轉換

我把這個原則套用在使用 AI 工具上。雖然技術決策並不是非黑即白,波普爾的否證法(證偽原則)跟我的日常應用也不能直接混為一談,但我借重了他刻意尋找反例的精神。

核心觀念就是:如果連 AI 都能指出明顯問題,那就應該再想想。