Daily Archives: 2024 年 1 月 16 日
今天共有兩篇雜談。
「人工智能新時代」
自從CHATGPT發表以來,已經快一年了,AI的應用有快速的發表,許多大公司,例如律師行,醫院,會計師行,建築師,服裝設計師,廣告公司,電腦保安……,都開始在實際的業務中使用它。最近OPEN AI更推出了CHATGPT 的APP STORE,鼓勵任何人將CHATGPT應用到實境中去,APP的發明人如有人應用,可以收到回報,有智慧的這一個超級巨人,已經經過訓練,可以幫幾百萬人同時做各種不同的事,將來懂得應用AI變得非常重要。
有專家指出如美國掌握到真正的AI,在技術上比其它國家就站在更高的台階上。
而CHATGPT在微軟和OPEN AI的合作下,經過訓練已經成熟,而這個技術正有條不紊地,一步步地轉化為實際的收益。一個強大的工具,可以方便使用的方法交給客戶,擁有者坐收租金!
而強者變得更強,可以預期將來的通用智慧,應該是由這一個團隊開發出來。
「博奕智慧 – 重貼」 ( 16 )
「第二章:(二) 囚犯困境:兩個聰明人的麻煩」
甲推理的結果是:如果對方合作 (不招),自己背叛可以獲得更多,坦白者作為證人,免於被起訴,對方判15年。如果對方背叛 (招供),自己背叛也可以得到更多,最多判10年。
對乙來說,推理的過程和結果也是一樣的。於是兩人都選擇招供,這最符合他們個體理性的選擇。按照博奕論的說法,這是他們兩人的「優勢策略」,也是本問題的唯一平衡點,在這一點上,任何一方改變策略,他祇會得到對他個人而言較差的結果。
於是雙方背叛的結果是:雙方都被判服刑十年,比雙方合作 (不招供) 的結果要差許多。個體的理性達不到對雙方最佳的結果,這就是「困境」。為什麼理性又聰明的人,得不到對集體最佳的結果?原因是兩人都出於自私角度考慮問題,達不成合作。
「囚犯困境」是理性的人類,在社會複雜的環境下出於自私,互不信任,而做出不利選擇的典型描繪,表面看到的最好選擇,其實對自己不利。