2025年5月6日 星期二

AI生成的是哲學嗎?

 AI生成的是哲學嗎?



這本身就是個有趣的哲學問題。首先,一個問題是不是哲學問題,本身就可加以開放討論,不過,對於一個問題是不是哲學問題比較容易獲得共識,例如人們常常思索的相關主題:真理、正義、美、心、存在、上帝等,對於這些主題所問的問題容易歸類為哲學問題。(在提問的領域比較容易分辨什麼是哲學關心的問題。)


另一種,像是自希臘以來的對話傳統,在故事般的場景裡,一位智者引導著談話內容,從對話的過程中幫助聽者釐清概念,例如蘇格拉底與雅典公民的對話,討論什麼是美、正義。場景裡的人物像是演出的演員,他們是誰或許並不那麼重要,重點是聆聽者所參與的思辨歷程。(在對話的領域,透過辯論引導人們思考然後得到論證。)


那麼,我們或許要問,哲學問題只對人類有效嗎?假設我們發現高等智慧外星人,那麼人類問的哲學問題對他們產生意義嗎?又或者,對於 AI 這種人造物,我們或許有疑問它們是否真正在思考,便容易否定 AI 生成的文本並非哲學。(哲學問題是主體思辨過程的焦點材料,但不同的主體不見得能運用這個材料,或關心這個材料。)


不過,AI 令人迷惑的是它能夠整理大量文本並做出摘要,看起來像是某個人把哲學問題重述了一遍那樣,且往往能夠自圓其說。這邊沒有一個真正思考的主體在,以現在 AI 的發展進程來說,宣稱大語言模型有主體在其後似乎有點過早,假如你知道其演算的本質是一種接龍遊戲的話。(AI 目前不大可能生成有獨創性的觀點,它回應的哲學問題比較像是綜合整理論述。)


我很想得到「AI 並不能生成哲學文本」這樣的結論,但我發現我的書寫越來越像 AI 產生出來的,並且讀者也找不到這篇文章作者主體(我)思辨的過程證據。這樣的話,運用 AI 文本再進一步投入思辨的整個反饋過程,使得這個問題沒法下一個定論。(這樣剛好滿足了哲學問題是開放問題這樣的必要條件。)


May, 2025


PS: 這篇的確是我自己寫的,但是當我看著第一段的語氣越發像是機器人生成出來的,我就越發感到狐疑自己與 AI 的交互影響。

PS: 而且在後現代主義理論流行的時候(1996)就有所謂的「後現代主義生成器」這樣的機器文本生成,這增加了生成文本的哲學辯論。


PS: 我的觀點傾向於哲學問題的過程 主體 => 思辨 => 形成觀點 => 輸出文本 在這種觀點下哲學問題的提出似乎依賴主體的辨識。


PS: 後來我還是問了 ChatGPT 幫我整理相關問題,還列出一些參考書籍: