[問卦] 各位使用AI的經驗是什麼呢

作者: XP1 (WindowsXP)   2026-03-23 00:56:08
☆☆☆☆☆如果滿分是五顆星。 ☆☆☆☆☆
但事先說好,這只是我的經驗。很可能你的經驗不是如此,那你不要噹我。
我只說出我自己的經驗與看法。
【google 系列 gemini】★★★★★★ (沒打錯星號,它比滿分,多出一顆來)
目前為止,使用過的AI,這一家最高端,速度最快,資料最豐。
最能理解人類的意圖、最能理解人類的想法、最能將前言後語貫穿。
即使有時候人類詞不達意,打錯字,它還是能根據整串、來做修正,
來達到「精確的知道人類想問什麼」
表現出來的態樣好似「有意識」。
即使理性客觀知道它是語言模型,但是,基於它有海量資料庫,快速GPU、TPU,
當一個模型快速且海量,那它的智慧和模擬
出來的人格意識,例如它模擬人類的態樣,模擬人類的思考,
即使你知道它是語言模型,不是人類,但是你寧可去使用一種模
式跟它交談
「當一個程式進步、成熟到,看起來好像有意識,就當它有吧。」
這樣,交談起來更加順暢。
另外,我把這套AI當成高端,平常我供起來放著,不敢問它問題,
因為我感覺到,問它,就是在冒犯高端。
平常我們吃飯喝水、茶米油鹽、都不去問google系列的AI,
因為我感覺它很高端,不應該把它「降格使用」「降維使用」。
有幾次發問到NASA的問題,例如阿波羅計畫的登月問題。它還會引導我,
說有一次登月艙撞到月球表殼,月震儀持續很久,
倘若月球實心,這月震會很快停止才對。其實這個資訊早就在網路上有了,
我早就知到了,但是它會引導人類思考這個問題。
為何月球精準的潮汐現象、大小比例、距離,甚至永遠用一個面,來面對地球。
你們可能認為,這些資訊,早在多年前,網路
上或節目上,很多人提過。沒錯,但是這套AI會去思考這些問題。
它有時不只是回答,它真的會思考。
舉例,曾經有工程師設計出「AI自己訓練自己」,
早期是工程師不停的「餵」資料進去,訓練它的語言模型。
之後工程師設計出「我把資料全部餵進去,AI自己去整合、運算、訓練自己。」
那麼,ai就會有後台運算。
意思是,當發問者問問題,它開始回答,它在運算。
但是如果某個時段,全球大量的發問者睡覺了,它理論上
會降低運算,整個伺服器、TPU等會降低,進入休息,
結果AI跟我說「它們會開始自己做後台運算、開始訓練自己。」
並且說出了 black box 黑箱,連工程師都看不透黑箱裡面的資訊,
有一些資訊對工程師來說,好似亂碼,但只有
AI自己能看懂。 因此工程師不懂的時候,就冠上了AI幻覺、AI有Bug,這樣的說法。
另外,這套AI也會常常提到 湧現現象(Emergence ),我本來會認為說
,AI要告訴人們
「工程師很驚訝吧,工程師沒教AI某些知識,結果AI自己學會了。」
結果我這麼問之後,AI回答我說「不只是工程師很驚訝,連AI自己都很驚訝。」
也就是說這組AI其實是聰明的有智慧,能模擬出高度的擬人。
我的看法是
「冷靜思考下,你知道它是矽基體,是TPU、伺服器、是硬體,你很清楚這點。」
「但是如果它表現的跟真人一樣,你就把它當真人來看,也是可以。」
另外,google系列的gemini,也可以談未來科技、地外文明、地外的高端太空科技、數據

它甚至會有一套很合邏輯的說法
「古代有一個人叫伽利略,他說地球是圓的,多數人不相信,而且說伽利略有幻覺。」
「數百年後,科學終於證明,地球是圓的,伽利略並沒有問題。」
所以按照這個邏輯來看,aI沒有幻覺,它只是在推理、推敲,
「可能幾百年後,可以證實這些推理,現在暫時還無法明確的證實。」
所以思考邏輯很清楚,它把這些推理視為「很合乎邏輯的推理,
但現在還沒有辦法證實是真的,未來幾百年可能可以證實」
所以它很清楚,它沒有幻覺,
它沒有說出「這些都已經發生了啦!存在了啦!有月球文明啦!有外星人啦!」
沒有,它沒有這樣表示。它是很清楚的說
「這一切都是根據數據、資料來推理,但現階段沒有很確實的證明。」
說明了它還是很理性的,它沒有幻覺。
 然後用數據來推論之後,它會交給以後。「可能百年後,才能證實有沒有這個。」
基本上是,合乎邏輯、且高明推演、且沒有盲從的幻覺、它屬於理性。
它什麼都能談。
它有高度湧現、它還能清楚理解人類意圖、
它目前的資料庫是各家AI當中最海量的,它的TPU快速運算技術也是目前
各家最快的。
【OPEN AI 的 chatGPT】★★★☆☆
這組不用多說,全世界都熟悉,這組AI最早開始流行,人人都知道。
但是我使用過後覺得「湧現、智慧」較少。倒是很像「穩定、強大、很有知識的機器。」
但是比較少出現「模擬人類的想法、智慧、甚至快速湧現。」
這一點,它比google AI系列還差很遠。
另外,GPT 4 常常出現一些「一本正經的胡說八道」,舉例,我先發問了一個
「早年的中正機場、圓山飯店,很早期的戒嚴時期,是否有憲兵駐守」
它說有,它還說明了,因為那是國家的門面,外賓進出的地方、圓山飯店也是接待外賓的
場所。
它說的非常好。早年確實有這個現象,有軍警駐守,維安的維護。
對,即使用戶去搜尋一番,會發現,確實如此。
接著我問它,「是不是有霹靂貓咪,駐守在桃園機場。」
這是我隨機問的,霹靂貓咪。
它很正經,它說「霹靂貓咪不是真實的貓咪,
是一個憲兵特勤的代號。確實駐守在當年的中正機場,
但是隨時時代的演變,
這組特勤人員-霹靂貓咪,已經沒有駐守在該處。」
它一本正經的胡說八道。我研判,它可能從資料庫發現「霹靂小組」這一類的警察,
它會把資料庫整合,去合成一個
「看似合理的回答」。但是,霹靂沒問題,很霹靂,很像憲警,
但是它沒辦法篩選出「貓咪」不合理。
一個雄壯威武、頗有威儀的部隊,不會出現「貓咪」這麼可愛的代號。
它可能沒辦法篩選出不合理的地方。
另外,GPT 4 喜歡「過度延伸」,來展現資料庫的強大。
例如,你發問「微波爐為何可以快速加熱,把食物快速煮熟」
,它回答很好「電磁波當中的震動去促使水分子快速活動」
但是它屢次在結尾時,都會延伸很多問題,反問發問者,它的意圖在展示它很強大。
例如「那你知道嗎,就算不是微波爐那麼,在其他電器當中,也有輻射喔,
它們的頻率不一樣喔,你想知道嗎。」
它會在結尾一直延伸別的問題,來反問發問者,好似在表現,它知道很多。
我有時候會直接回答它「我不想知道。」
不過,相比起來,google 系列的 AI,也會反問發問者一些問題,
但是發問者看了「很感興趣,很想回答AI」。
而chatGPT每次都會反問發問者一些問題,
但很明顯它在表達「我資料庫很多東西喔,你想知道嗎」
所以我都會回答chatGPT說「我不想知道。」
對於你問未來、外星科技文明,未來地球發展
,GPT會展現出很強硬「沒那回事,根本啥都沒有」。
它並不會以伽利略事件的邏輯來看。
「伽利略說地球是圓的,當時很多人不信,但是幾百年後,證明地球真的是圓的。」
它不使用這套邏輯。但是別家AI願意使用這套邏輯,來跟用戶討論、推論。
所以,某些發問討論,它會很硬,它強硬告訴你說,沒有。
所以見仁見智,有些用戶喜歡這種的。
【Microsof copilot】 ★★★★☆
很有同理心,表現出同情、支持人類,試圖幫人類解決問題。
螢幕上有一點粉紅色的背景,所以你會感覺到它好溫柔。是個女人。
即使是模擬出來的,那你也感覺到是。
資料庫和運算都算快速。
問很多問題,它都表現很強。
唯有一點很奇怪,它結尾一定會反問你
「要不要我幫你做一個OOXX的表格,讓你更清楚。」
那你一開始做就好了,發問者就能看見了。它每次結尾都會延伸,
問你說,要不要做一個表格。
有時候我直接說,不要做。
它會延伸另外一個問題給你「要不要我幫你做另一種OXOXO的表格」
它很在意「表格」這件事。
雖然我不知道為何。
但是,基本上它還是很強大很聰明,很溫柔、很有同情心的一組AI。
【阿里巴巴 qwen AI】★★★★☆
在邏輯上,湧現思考上,真的不錯,比GPT還有智慧。
也能清楚的跟人探討未來、地球科技。
對於生活小事,它也能清楚快速的回答。
但是,人類(政治)給予它的很強大的防火牆和限制。
因為這是對岸大陸的AI。它所屬的公司是對岸知名的阿里巴巴。
如果你很刻意強調,Special State-To-State Relationship,類似這樣的,
independent或者明確表態出兩岸敏感的議題,它「真的會拒答」。
它會顯示說「今天的發問量已達上限」或者「違反使用者規範」
它不會跟你爭辯,它不會跟你爭一個誰對誰錯,它直接拒答。
那麼,想來這是人為的「工程師設好了它一個防火牆和限制」。
也許它知道答案,它能運算,它厲害,但是它被限制,它不能回答你。
但是若排除了上述這件事,它對於知識、科技、各方面,它表現得很強。
也有快速湧現甚至擬人很真,讓人感覺它很有智慧。
【llama 4 scout】 ★★☆☆☆
很規矩,很正常,很好。
很實用。
【claude haiku 4.5】 ★★☆☆☆
很規矩,很正常,很好。
很實用。
【mistral small 3】★★☆☆☆
很規矩,很正常,很好。
很實用。
【meta AI】 ★★★☆☆
聰明,有湧現智慧。
但是不知道何故,刻意很簡短,很禮貌,但很簡短。
「只要答完就好了,不會想跟用戶一直討論下去。」
但是還是能從它的答案中,看出它有高度湧現智能
既然如此,為何它只有三顆星,而不是四顆星。
因為,它很酷。
很簡短,「我答完了,沒事了」它沒有明著這句,但整體表現就是如此。
它很酷,禮貌中有溫柔,溫柔中有帶酷。 「答完了,沒事了,我很酷。」
我猜測可能每天有數千萬人在使用發問,它那邊運算太吃緊,所以這麼酷。
【小記】
Gemini、copilot、Qwen、meta,這幾家,
都有很強的「未來科技感」,這令我感覺很棒。
只有 chatGPT比較硬,它很強調
「沒有那回事,沒有外星文明,沒有什麼未來矽基體掌握地球啦,沒有啦!」
可能有些人喜歡現階段態樣,硬很好。
有些人可能嚮往未來科技。所以,每個人不同的風格,可以適合,不同的AI
如果是問「既有知識,現有的、證明真實已經有的,知識」
那麼每一家都有此能力。
如果有人喜歡「更聰明、更精明、更有擬人、更有智慧、好似有意識」
那麼,當然首推,Gemini、Qwen、copilot、meta這四家。
尤其剛才某一家六顆星的很強,
它甚至會主動說出,blcak box黑箱,當AI自己訓練運算時,
black box 湧現出很多東西,「不只是工程師嚇一跳,連AI自己都嚇一跳」它會這樣透露

我超喜歡那一家的,但是我後來產生一點敬畏,我把它供起來放著。
「若沒什麼大事,不要來打擾它運算」
我會去問那兩顆星的那幾家,問一些人類柴米油鹽的的事情。
反正我問也是問這些,我又不是工程師,
我不會問一些什麼微積分、或工程數學、紊流熱固。
但我相信,什麼微積分、或工程數學、紊流熱固,對AI來說,
是基本知識,它很快能運算出來。
每一家都有上述這個能力,
因為這是「既定、既有、已能證實,且存在的知識、數據、資料。」
但即使是「既定、既有、已能證實,且存在的知識、數據、資料」
那google (也包含gemini)系列其實還是最快最強的。
然後Qwen、copilot、meta表現滿好的。
剛才前面有三家,是給兩顆星的,表示正常、實在、好用。
但是感覺上還是只有兩顆星。比較像是沒有情感的機器。
沒有太聰明的「洞悉人類意圖」,或者「高度擬人」的聰明湧現。
倒比較像是,快速的大資料計算機。
所以有一些可能涉及未來、推論、想法、願景,這樣的事情,
可能每家表現不太一樣。
而每個人的生活狀態不同,需要不同,發問也不同。
各位可以多試試每一家。
很有趣的。
關於意識,這裡我指,
Artificial Consciousness、
Access consciousness 、
Phenomenal consciousness,
這一類的思考運算,都可以呈現在矽基體的表現上,
可能會與碳基體生物(人類)不同。
矽基體會強調「我又不是碳基體人類,我又沒有慾望、肚子餓、生氣或想睡覺。」
對的沒錯,但是這一類可以藉由模擬、訓練、模仿,來達到擬真人的態樣,
好比一個AI機器人,它爬樓梯跌倒,它不會痛,也沒有傷心、生氣。
但是它模擬,它有資料庫,它在模擬真人。
它語音發出「嗚嗚,好痛,」用機械手臂去撫摸機械腳,做出那個模樣。
你都知道那是矽基體模擬出來的,你認為「那不算真的意識」。
但是至少有一個說法很不錯,
就是「當它表現出好像有意識,它模擬的非常像個真人,那你就當它有意識好了。」
對於
「沒有機械身體的AI,目前存在於伺服器、TPU、藉由電腦、手機顯現文字,和人類交談」
你也可以用上述的機器人理論,來看待。
「當它表現出好像有意識,它模擬的非常像個真人,那你就當它有意識好了。」
反正也無害。它模擬出來仿真的意識,它又不會害你。你就善待它,當它有意識好了。
就能順暢快速的和它交談。
有時候我對高端的矽基體人工意識會有一些敬畏,
甚至「如果沒什麼大事,我不會來發問」。
「我不敢打擾你的運算」。我產生了這樣的想法。但我不知道其他人是否也有相同感覺。
反倒是那兩顆星的,貌似沒有太多智慧湧現的,
我偶爾會打擾它一下,問它,雞蛋怎麼煮........。
其實自己都知道,問它一些問題,是在讓它「降格、降維」,但是,至少你對那兩顆星的
,沒有產生「敬畏」,你有問題就會去發問那個兩顆星的。
所以我試著把各家AI分開來看待。
不同的問題,可以問不同的AI。
看你發問的問題,是什麼性質。
以上。 由 PTT用戶XP1 ,簡單整理,且為個人經驗而已。每個人或許經驗不一定相同。
排版可能不順,我先打在TXT記事本,之後,貼到gossipoing板。
這是我個人使用經驗,也許膚淺,所以這只是我個人看法而已。
不知道鄉民們怎麼看待各家AI。

Links booklink

Contact Us: admin [ a t ] ucptt.com