推 nodnarb1027 : 啊不就查證跟媒體識讀,這不管什麼科技都該具備吧 08/09 22:25
推 SiFox : BI 08/09 22:25
推 zerro7 : chatgpt下滑 bard上升 就只是市占被分掉而已 正常吧 08/09 22:25
推 rainys : 雖然我站空方 但AI真是.COM後最生猛的料了 08/09 22:25
→ CKHomo : ai又不是只有chatgpt 早就有其他實際應用了 看空ai 08/09 22:26
→ CKHomo : 股可以 但是拿元宇宙去類比還是省省吧 08/09 22:26
→ azhu : AI會做夢嗎? 08/09 22:26
→ Altair : AI說謊有什麼關係 人類說更多謊 08/09 22:26
推 EvilJustice : 完了,還有幾級可以跑 08/09 22:27
推 s56565566123: 內容農場也差不多 08/09 22:27
推 touchbird : 還以為仿生人要出來了 = = 08/09 22:27
→ tomdavis : 沒了 明天要跌停開惹? 08/09 22:27
推 nodnarb1027 : 就算沒有AI,搜尋引擎跟社群軟體瞎掰的內容農場幻覺 08/09 22:28
→ nodnarb1027 : 早就存在了 08/09 22:28
推 stlinman : 這部我看過,最後AI會做夢! 08/09 22:28
推 ggirls : bard很智障 08/09 22:29
推 NEWinx : 一開始只是新鮮 08/09 22:30
→ b9513227 : 用過只覺得是挺智障的聊天機器人 08/09 22:30
→ Altair : 根據上文去猜下文 錯誤機率要趨近零的難度太高了 08/09 22:31
→ Alwen : 新聞媒體製造業多愛這種東西= = 08/09 22:31
→ Alwen : 以後記者是可以全部開除的 08/09 22:31
推 boykid : 人也會有說謊跟編造故事,這才是真AI 08/09 22:32
→ qaz12453 : 資料庫不是鎖在某年度嗎@@ 08/09 22:32
→ qaz12453 : 現在開放使用就跟以前聊天機器人很像吧 08/09 22:33
→ breeze0817 : 總會有人留言講ai還有其他應用..問題是其他應用這 08/09 22:33
→ breeze0817 : 五年十年內一直都有,這波熱潮完全是來LLM,投資也 08/09 22:33
→ breeze0817 : 都是圍繞在這...根本跟一堆人幻想的ai無關 08/09 22:33
推 horseorange : 答案一直是編的 只是編的像對的而已 08/09 22:33
→ qaz12453 : 使用者免費用然後回報 debug 08/09 22:33
→ soloyi : 不知道了 08/09 22:34
→ qaz12453 : 除越多 自然就改善 然後...收費 08/09 22:34
推 SiFox : 人類:你要誓死遵守「機器人三定律」,不危害人類! 08/09 22:34
→ SiFox : AI:好喔。(說謊 08/09 22:34
→ la8day : 因為AI的思考模式和人類很不一樣 08/09 22:34
→ SiFox : 然後人類文明就毀滅了 08/09 22:34
→ SiFox : 繼續走下去就是毀滅,很合情合理 08/09 22:35
→ qaz12453 : 現在只是種子剛發芽階段 不用期待多厲害 08/09 22:36
→ qaz12453 : 也可能剛發芽就被弄死 08/09 22:36
推 FFFAAA : 理想AI : 自動升級、演化、思考,然後取代人類。 08/09 22:36
推 shyshyan : 他搜尋資料掰出不存在的答案才屌....到底怎麼掰出 08/09 22:38
→ shyshyan : 來的 AI用資料庫訓練 然後推測回答出來資料庫沒有 08/09 22:38
→ shyshyan : 的資訊 XD 08/09 22:38
推 aegis43210 : LLM只是AI的一種而已 08/09 22:38
推 senma : 潛龍諜影 08/09 22:38
噓 Kyameron : Fake Ai 08/09 22:38
推 FFFAAA : 現實AI : 複製、貼上、取代,然後Google...照著念! 08/09 22:38
→ Ceferino : 因為AI沒有自我論證能力啊,當有這能力時就開始超 08/09 22:39
→ Ceferino : 進化人類可以去死了 08/09 22:39
推 shyshyan : 然後跟他說他說錯了 要他重新回答一次 他就繼續剛 08/09 22:41
→ shyshyan : 剛瞎掰的東西 XDDD 08/09 22:41
推 zitto : chaptGTP有時候給的連結跟答案都是假的 08/09 22:42
推 strlen : 人類本身的幻覺更可怕勒 光假新聞就搞死多少人 08/09 22:42
推 gk1329 : 越做越笨= = 08/09 22:42
→ strlen : 人類有自我辯證能力 結果說的東西都是正確的嗎 08/09 22:43
推 flyingdeeck : 需要實踐賞罰機制吧 08/09 22:43
→ chanceiam : 就內容農場太多,資料亂餵吧? 08/09 22:43
推 Syd : 資料庫還不夠準確,之前問他中職某年的全壘打王, 08/09 22:44
→ Syd : 對答案之後沒一個對的 08/09 22:44
→ flyingdeeck : AI答錯不會有痛覺或受罰的回饋 08/09 22:44
噓 winner0429 : 我上次叫他背出師表 結果他背師表 爛透了 08/09 22:44
推 jecint1707 : AI說謊是知道是錯的還講才是說謊,不知道是錯的講 08/09 22:44
→ jecint1707 : 出去叫做瞎掰 08/09 22:44
推 shyshyan : 要他搜尋地點名產都能亂掰了..... 08/09 22:45
→ flyingdeeck : 感覺AI實際上只是很渴望&被人類糾正& 08/09 22:45
→ tony15899 : 之前不就有律師亂用AI產生的資料? 08/09 22:46
推 thugf : 人間已經是一場幻覺了,做夢的人發明出來的還是垃 08/09 22:47
→ thugf : 圾 08/09 22:47
→ lise1017 : 最慘的是AI沒有人類獨有的羞愧感 08/09 22:47
推 tonylolz : 明天抓最後一隻 08/09 22:47
→ lise1017 : 人類說錯 答錯 說謊 瞎掰 或多或少都會感到羞愧 08/09 22:48
推 flyingdeeck : 感覺是AI無法像人腦的神經元一樣去蕪存菁,太多無 08/09 22:48
→ flyingdeeck : 效的資料保留著 08/09 22:48
推 shyshyan : 用一用我覺得翻譯跟校正文法最好用.... 08/09 22:48
→ lise1017 : 而AI是零 完完全全0羞愧 毫無情感的機器 08/09 22:48
→ haver : 因為大多數投機客只知道C.GTP啊 AI應用還沒成熟 08/09 22:50
推 flyingdeeck : 可是AI邏輯、詭辯能力其實很強,就是很愛鬼扯 08/09 22:50
推 reyes2222 : AI分不清歷史事實與幻想,想法可以胡扯,事件就在那 08/09 22:50
推 Madridtop : 難怪美股狂殺 08/09 22:50
→ iio : "chat"GPT 他是語言模型 開發的目的就是要陪人聊天 08/09 22:50
→ strlen : 外資在發出貨文時有羞愧感嗎 笑死 08/09 22:50
推 tony15899 : 嚴格來說現在估狗到的資訊大多數也是瞎掰的垃圾內容 08/09 22:51
推 flyingdeeck : 外資那個惡意性很明確齁 08/09 22:51
→ tony15899 : 所以問問題garbage in garbage out也很正常 08/09 22:52
推 Madridtop : AI根本世紀大笑話,輝達這波救股騙局,看來會屎不 08/09 22:52
→ Madridtop : 少人喔 08/09 22:52
→ flyingdeeck : 沒事啦真AI也是十年後的事情,錢真能滾出科技樹的 08/09 22:52
→ linzero : 因為訓練上就會要求一定得有個解或回應,所以硬湊也 08/09 22:52
→ linzero : 會生出個來 08/09 22:53
→ tony15899 : 還不算AI自己就會瞎掰 08/09 22:53
→ flyingdeeck : 對!重點都還是訓練模型,神經元數量其實是足夠的 08/09 22:53
推 zerro7 : 希望AI發展起來把那些投顧都取代掉 08/09 22:54
推 rainys : AI就是個算法,且是人定的,AI能定算法時各位吃屎!! 08/09 22:56
推 qtzbbztq : 所以本來就不該完全依賴chatgpt 我都是要求他在我限 08/09 22:56
→ qtzbbztq : 定的範圍內 我理解的範圍內幫我改東西 這樣就不會錯 08/09 22:56
→ qtzbbztq : 它是一個很好用的助理 把它當作百科全書本來就不對 08/09 22:56
→ cccict : 現在的ai都是服務性質,跟人一樣,只要有功能類似 08/09 22:56
→ cccict : 的,誰價格低就用誰 08/09 22:56
→ mic73528 : 越來越少用是真假,我還不把月費停掉,省30美買蛋糕 08/09 22:57
推 ru04hj4 : 就是瞎掰的意思嗎 08/09 22:58
→ qtzbbztq : 很多人甚至搞不清楚AI的運用不只在文字 你有稍微關 08/09 22:59
→ qtzbbztq : 注一下ai運用 就會發現有多少創新的做法了 像是最近 08/09 22:59
→ qtzbbztq : 的新聞 光是聽你鍵盤打字聲音 ai就可以猜對你打什麼 08/09 22:59
→ qtzbbztq : 字 準確度高達95% 以後類似這種創新的運用只會越來 08/09 22:59
→ qtzbbztq : 越多 08/09 22:59
推 falcon11 : 一堆低能兒都不知道自己工三小 還敢要求AI喔 08/09 23:02
推 bj45566 : Google 的情況完全不一樣,你可以選擇 Google 搜尋 08/09 23:02
→ bj45566 : 結果中具極高公信力的網站 (e.g., .mit.edu, ,nasa 08/09 23:02
→ bj45566 : .nih.gov. ...) 08/09 23:02
推 sazabijiang : ChatGPT有個嚴重的問題是,他會努力迎合使用者 08/09 23:02
推 BIGETC : 大語言模型真的劃時代 可是 幾個月過去 數據算力一 08/09 23:02
→ BIGETC : 定成長不少 演算法先當它0變化 可是現在跟ai對話 會 08/09 23:02
→ BIGETC : 發覺一點很可怕 它幾乎沒進步 08/09 23:03
推 touchbird : 可以猜到你打什麼字 那要幹嘛 = = 08/09 23:03
→ falcon11 : 拿人類的資料模仿人類 然後要沒有幻覺??? 08/09 23:03
→ bj45566 : *nasa.gov 08/09 23:03
→ joygo : 每個人自己訓練的模型等不同,然後他太愛唬爛了 08/09 23:04
推 waterjade : 就算人寫的一樣要校對 AI只是省工而已 08/09 23:05
→ nfsong : 反正我朋友現在上班就是開著chatGPT 工作 08/09 23:05
推 CGDGAD : 這個問題其實已經深入到哲學的討論了,尼采:沒有 08/09 23:05
→ CGDGAD : 事實,只有解釋 08/09 23:05
→ sazabijiang : 只要稍微誘導一下,暗殺總統都可以合理化 08/09 23:06
推 devidevi : 東西只有你不會用,不是沒有用 08/09 23:09
推 CYL009 : 這種用資料庫訓練出來的AI 落伍了 現在還有深層式AI 08/09 23:09
→ CYL009 : 那才是關鍵 08/09 23:09
推 WeiMinChen : 問七步成詩給我跳孫臏 有夠87 08/09 23:09
→ devidevi : 可以讓GPT寫小說,需要創造力的東西 08/09 23:09
→ devidevi : 能夠自己創造的AI才是真AI 08/09 23:10
推 gn7722 : 樓上一堆AI達人,開始闡述如何改變世界 08/09 23:10
→ gn7722 : 你有辦法讓一堆so變成網路水軍上來24小時刷文帶風 08/09 23:10
→ gn7722 : 向 08/09 23:10
→ breeze0817 : 所以我就問聽聲音就知道打啥字到底能幹嘛 08/09 23:11
→ gn7722 : 你有辦法讓一堆AI 變成網路水軍上來24小時刷文帶風 08/09 23:11
→ gn7722 : 向,我才信你AI有用 08/09 23:11
→ breeze0817 : 一堆智障應用到底能幹嘛? 08/09 23:11
→ breeze0817 : 吹一堆ai應用的要不要看看養ai的成本 08/09 23:12
→ gn7722 : 你要說ai ,一台桌上型電腦就很ai 08/09 23:12
→ breeze0817 : 能商用賺錢才是重點好嗎? 08/09 23:12
→ gn7722 : 下棋贏圍棋冠軍的也是ai 08/09 23:13
推 rainys : 我翻譯:微觀的事物數據化 再整理出人類能看的懂表格 08/09 23:13
→ gn7722 : 老早存在你身邊各種大大小小等級的ai 08/09 23:13
→ breeze0817 : 鬼扯一堆智障ai應用跟吹超導的沒兩樣 08/09 23:13
→ tony15899 : 現在一堆在吹的AI應用根本不是新東西 08/09 23:13
推 reyes2222 : AI在創意發想之類的,表現不錯,不用以事實為底 08/09 23:13
→ breeze0817 : 炒股重點要公司能靠ai應用賺錢 08/09 23:13
→ gn7722 : 切特居批踢,其實就是新鮮應用,嚴格講起來是可以 08/09 23:14
→ gn7722 : 利用來做一些事 08/09 23:14
→ tony15899 : 就近幾年硬體跟上讓功能變強 然後就開始吹 08/09 23:14
→ gn7722 : 但你要說改變世界,吃屎比較快 08/09 23:14
推 Kobe5210 : 電影情節 08/09 23:14
→ breeze0817 : 商用跟量產才是困難的地方 08/09 23:14
噓 energyy1104 : 一堆文組大談AI 08/09 23:15
推 cool10528 : 之前測試chatgpt連台積電董事長是誰都答錯 08/09 23:15
→ gn7722 : Ai 大數據分析,早就是好幾年前就有的名詞 08/09 23:15
→ rainys : 第一天聽的錯誤率是99%但在人類訓練下可以達99.999% 08/09 23:15
推 coffeedemon : 生成式AI拿來寫code跟一些Script還是很好用阿 08/09 23:15
→ gn7722 : 文組是需求末端,談Ai才是利基的地方 08/09 23:15
→ gn7722 : 理組很懂,但你沒辦法生活平日化 08/09 23:16
→ gn7722 : 你懂那麼多有屁用? 08/09 23:16
→ gn7722 : 桌上型電腦,很懂的人用dos跟電腦講話就好了 08/09 23:16
→ gn7722 : 真正利益端,是低能兒只會點開我的電腦的人 08/09 23:16
推 YeezyBoost : 專業知識是自己的 AI只是幫助你節省超多整理和書面 08/09 23:17
→ YeezyBoost : 作業 懂這個就知道AI有多神 而不懂AI的就是沒有專 08/09 23:17
→ YeezyBoost : 業知識 才會想拿AI來問知識然後得到亂掰的答案還氣 08/09 23:17
→ YeezyBoost : 得跳腳說AI很爛 08/09 23:17
→ gn7722 : 理組談Ai,就是活在自己的世界 08/09 23:17
→ breeze0817 : 砸多少錢做出來的生成式AI結果只有寫code的人願意 08/09 23:18
→ breeze0817 : 花錢買單...那不就跟元宇宙半斤八兩嗎 08/09 23:18
推 eric878787 : 元宇宙有什麼應用嗎哈哈? 08/09 23:18
→ gn7722 : 微軟賺翻是靠dos嗎 08/09 23:18
→ gn7722 : 還是靠平易近人的widows 08/09 23:19
→ eric878787 : chatGPT至少可以寫論文XD 08/09 23:19
→ gn7722 : 不用講太多廢話什麼ai 未來,你就跟我說說,文組白 08/09 23:19
→ gn7722 : 癡能簡單用Ai讓生活方便的是有哪些 08/09 23:19
→ breeze0817 : 現在的問題就是連專業知識他都出錯好嗎 08/09 23:19
→ eric878787 : 現在語言生成模型再不濟至少可以丟著當客服 08/09 23:20
→ breeze0817 : 原本要省時間用 結果最後花時間校對 真方便呢 08/09 23:20
→ gn7722 : 還要花時間審查ai 內容 08/09 23:21
→ gn7722 : XD 超智障 08/09 23:21
→ gn7722 : 終究還是個輔助 08/09 23:21
→ eric878787 : 誰跟你談那個專業知識,你把你要的重點輸入進去Chat 08/09 23:22
→ eric878787 : GPT會幫你補語句,而且最根本的重點是ChatGPT負責產 08/09 23:22
→ eric878787 : 出,人類判斷產出東西有沒有用,要腦噴誰不會 08/09 23:22
→ gn7722 : 皮衣老黃炒股記 08/09 23:22
→ gn7722 : 沒人否認他有方便的價值 08/09 23:23
→ gn7722 : 但又怎樣 08/09 23:23
推 kanehhh : 李奧納多可以問AI我到第幾層了吧 08/09 23:23
→ gn7722 : 本質上沒有改變世界任何事 08/09 23:23
推 reyes2222 : 專業知識怎會用它? 08/09 23:23
→ gn7722 : 節省了點時間,但然後咧 08/09 23:23
推 Madridtop : 明天比手速了 08/09 23:23
推 philip81501 : 問題是這樣就只能問一些啟發性問題 問事實性的答案 08/09 23:23
→ philip81501 : 就很容易造假 08/09 23:23
→ gn7722 : 他沒有創新、沒有改變、他就只是方便 08/09 23:23
→ eric878787 : 人類自己寫500字約花二十分鐘吧,chatGPT經過幾萬篇 08/09 23:24
→ eric878787 : 論文訓練,寫出能用的東西大概二十秒,你花三十秒檢 08/09 23:24
→ eric878787 : 查有沒有漏洞判斷能不能用,真沒效率? 08/09 23:24
→ gn7722 : 輝達大崩盤,明天手速賣出,不要吵 08/09 23:24
推 SRT0619 : 很潮跟很有用 有時候是背道而馳的 08/09 23:24
→ coffeedemon : 不過中國是一堆懶人在吹AI幫忙做簡報跟報表格式 08/09 23:24
推 DreamW : ChatGPT常跟我道歉 08/09 23:24
→ gn7722 : 比較方便了,但不到改變世界,就這樣,說完了 08/09 23:25
→ tony15899 : 一篇文章你能用30秒就知道裡面講得對不對 08/09 23:25
推 Heedictator : 跟自媒體一樣,太多錯誤的假知識,我現在也不看了 08/09 23:25
推 cyora : 目前的ai不知道什麼叫說謊或編造答案,它就是把下一 08/09 23:25
→ cyora : 個最可能出現的字找出來而已 08/09 23:25
→ breeze0817 : 重點是有多少個需要花錢買這個功能寫論文的人? 08/09 23:26
→ eric878787 : 這裡的人懂不懂技術?語言生成模型是根據過去的資料 08/09 23:26
→ eric878787 : ,隨機拼湊生成語言,事實性的資料才是ChatGPT的長 08/09 23:26
→ eric878787 : 處,啟發性的才是他的弱項吧== 08/09 23:26
推 sucla1202 : 明天我上午都要在廁所渡過了,希望老闆不要出現在 08/09 23:26
→ sucla1202 : 隔壁 08/09 23:26
→ tony15899 : 數字跟引用來源有沒有符合 那你也不需要用ChatGPT 08/09 23:26
推 reyes2222 : 寫計畫、論文大綱蠻有效的,學語言也不錯,只不萬能 08/09 23:26
→ breeze0817 : 難得訓練這個花的成本賣給寫論文的人可以回本 08/09 23:26
→ breeze0817 : 講一堆有的沒的 到底你花錢買這些來用了嗎 08/09 23:27
→ reyes2222 : 我的感想剛好相反,事實有唯一性的,反而它容易錯 08/09 23:28
推 c7683fh6 : 什麼幻覺 直接講唬爛不就得了 08/09 23:28
→ eric878787 : 我不知道,我只是告訴你這個東西有用,比元宇宙有用 08/09 23:28
→ eric878787 : ,僅此而已。而且隨便一想把Data base改成客服常用 08/09 23:28
→ eric878787 : 的語句跟常遇到的問題進行預訓練,讓他去負責對付惱 08/09 23:28
→ eric878787 : 人的奧客感覺就比請一個正職來的有耐心跟便宜 08/09 23:28
→ tony15899 : 銀行早就在用了 上次停個卡花不到3分鐘 08/09 23:29
推 lessmoref : 好了啦想出貨還要想一些內容欸很累 08/09 23:30
推 bj45566 : 事實性的資料是 ChatGPT 的長處? Google 在這方面 08/09 23:31
→ bj45566 : 屌打 ChatGPT 好嗎 08/09 23:31
→ bj45566 : 然後講出上面那句話的人嗆別人不懂技術 wwww 08/09 23:32
推 chysh : 新聞幻覺更可怕吧 08/09 23:32
推 jen1121 : 鬼故事出來了 08/09 23:33
推 eric878787 : 你說的對啊Google搜尋引擎比ChatGPT強,可是ChatGPT 08/09 23:34
→ eric878787 : 強項在計算語句的機率 08/09 23:34
推 jyunwei : 沒錯,AI會找到假資料,會有幻覺講出假的消息,反 08/09 23:36
→ jyunwei : 觀人類寫的都是貨真價實的真理,AI該泡沫化了吧 08/09 23:36
→ FlynnZhang : AI的幻覺 可以透過AI解決 08/09 23:37
推 afrazhao : 我最近剛chatGPT 真心覺得很好用耶,但想要單靠他完 08/09 23:39
→ afrazhao : 成所有事情,我覺得太天真,而且做出來的成品也會沒 08/09 23:39
→ afrazhao : 有個性 08/09 23:39
推 sumwind : AI不像人類,人類法庭都說真話,學術寫真論文 08/09 23:39
→ Shiver705 : 歡迎來到無限月讀的世界 08/09 23:42
推 dos01 : 那個尬聊APP的問題之前就說過了 你去問他一個問題 08/09 23:43
→ dos01 : 他跟你回答錯誤或是會侵害其他人的答案 那尬聊APP 08/09 23:43
→ dos01 : 要負($)責($) 特別是美國這種律師滿街跑的地方 08/09 23:43
→ dos01 : 在這種情況下就不可能大規模獲利 08/09 23:43
→ dos01 : 跟搜尋引擎這種可以鑽漏洞的情況有本質上的不同 08/09 23:44
推 dos01 : 搜尋引擎搜到有問題的網站 08/09 23:47
→ dos01 : 1.都是網站的錯 2.使用者用詞不精確 3.乾我屁事呵呵 08/09 23:47
→ dos01 : 尬聊APP給一個唯一性的答案 還有機率性答錯 這是要 08/09 23:48
→ dos01 : 負責的好嗎 尤其是商業應用上 08/09 23:48
→ cccict : 雖然是根據事實性資料,但chatgpt目前就是會把資料 08/09 23:49
→ cccict : 亂湊,應該說在train模型時的因為人工智慧的訓練目 08/09 23:49
→ cccict : 標不是絕對符合,所以會損失一部分的精準度,特別 08/09 23:49
→ cccict : 是像法條這種東西就會失準 08/09 23:49
推 B0402090 : AI色圖到處都是,怎麼會只有LLM 08/09 23:50
→ armorblocks : ai真的很強 跟人一樣會講一堆又臭又長的廢話 08/09 23:51
→ CKHomo : 不信者恆不信 最後時間會證明對錯 祝各位都賺大錢 08/09 23:52
→ armorblocks : 時不時還參雜著 聽來的謠言 08/09 23:52
推 johnny94 : 人類都會幻想有妹妹了,AI會幻想也很正常吧 08/09 23:54
推 dos01 : 參雜謠言就是準備被告 這就是最大的問題 08/09 23:55
推 wts4832 : ... 可是問人,也是會唬爛啊 08/09 23:55
推 rainylife : ai用來問粗淺的資料很方便,但更深入的資料若使用者 08/09 23:55
→ rainylife : 本身技術涵養不夠,很容易被唬爛 08/09 23:55
推 dos01 : 至於AI畫圖那東西也是被告預備軍 本質就不是什麼 08/09 23:57
→ dos01 : 學習 而是抄襲線條 小規模用 那些日本個人繪師沒在 08/09 23:57
→ dos01 : 理你 但大規模抄下去 人家集資一起告就只是剛剛好 08/09 23:57
→ dos01 : 那種"學習"跟我們畫圖學骨架 學透視不同 根本就是 08/09 23:58
→ dos01 : 看100張圖類似構圖的線條是這樣擺 那他就跟著擺而已 08/09 23:58
推 klyuch : 將錯就錯 以訛傳訛 08/10 00:01
噓 zero7810 : 推文跟手工織布工在哭織布機批量織出來的布都垃圾 08/10 00:01
→ zero7810 : 成品沒靈魂沒手工的匠魂 有啥不同啊?不適應 可以繼 08/10 00:01
→ zero7810 : 續 08/10 00:01
推 mimoo : 之前問chatGPT一些經濟問題 看有沒有新見解 結果光 08/10 00:02
→ mimoo : 基本理論知識就錯了 只會一直道歉 氣死 08/10 00:02
推 reyes2222 : 問的愈專業,愈小眾,它回答的錯誤率愈高 08/10 00:03
推 dos01 : 對 這就是抄襲仔的態度 都覺得別人的東西不值錢 08/10 00:03
→ dos01 : 自己可以隨便抄 但自己抄出來的東西要賣大錢的 08/10 00:03
→ dos01 : 哈哈哈哈 08/10 00:03
→ zero7810 : gpt會出錯 缺乏創造性不就是使用者大部分都是唸資工 08/10 00:04
→ zero7810 : 的在訓練 當然訓練出來產不出有內涵的東西 08/10 00:04
→ zero7810 : 當訓練模型也能專業化 是真正的專家在拿有價值的模 08/10 00:05
→ zero7810 : 型在訓練 結果就會不一樣 08/10 00:05
→ zero7810 : 還有很大的空間吧 當AI全面化變成各領域都能輔助工 08/10 00:08
→ zero7810 : 作解決別人的需求 精緻化 專業化的分支就會出現 而 08/10 00:08
→ zero7810 : 不是現在這樣還在知識亂抓大鍋炒 只有寫程式特別有 08/10 00:08
→ zero7810 : 效率效能優化的特好 08/10 00:08
推 JohnGalt : 看這下面推文就能想像不會用AI的人連怎麼失業的都 08/10 00:10
→ JohnGalt : 不知道 08/10 00:10
→ CKHomo : 關於畫圖 自己追的漫畫的圖片背景 已經有用ai輔助 08/10 00:11
→ CKHomo : 生成 作者沒講還看不出來 效果還不錯XD 08/10 00:11
→ CKHomo : ptt使用者年齡偏高不是講假的… 08/10 00:12
推 abc7360393 : 推樓上 這串給我的感覺已經不收專不專業的問題了 這 08/10 00:13
→ abc7360393 : 些推文要不就是跟時代過度脫節的老人要不就是完全沒 08/10 00:13
→ abc7360393 : 去研究的程度 這東西都多久了 還有人在拿資料庫跟這 08/10 00:13
→ abc7360393 : 個對比 08/10 00:13
推 Satomisan : 文組哈哈 08/10 00:13
→ abc7360393 : 不了解原理也沒關係 但連基本的好好利用都做不到 真 08/10 00:14
→ abc7360393 : 的不用那麼大聲出來昭告天下ㄟ 08/10 00:14
推 allenmusic : 網路一堆錯誤資訊 用那些來訓練 難怪鬼扯瞎掰 08/10 00:14
推 devidevi : 一邊是要求AI要夠專業,一邊是AI要能夠創造 08/10 00:17
→ devidevi : 雙方論點基礎就不同 08/10 00:17
→ armorblocks : 跟老高一樣 沒強調原創! 08/10 00:18
推 zvx911 : Bard 聰明很多 08/10 00:22
推 iddoraemon : ChatGPT回答有正確解答的提問,也會有機率用掰的或 08/10 00:23
→ iddoraemon : 是回答含糊,通常是敘述題。 08/10 00:23
推 videoproblem: 這篇推文拿去餵GPT一定有趣 08/10 00:23
推 milk830122 : 老高粉深信不疑 08/10 00:24
推 dos01 : 說得好! 這串一堆老傢伙 難怪沒被套在高點吹風 08/10 00:25
→ dos01 : 真羨慕那些能吃跌停的少年股神 哈哈哈哈 08/10 00:25
噓 Akitsukineko: 剛好一分K,你被margin call了嗎? 08/10 00:25
推 DreamW : 一本正經的胡說八道 08/10 00:27
推 t516 : 我老高粉我深信不疑,儘管取笑喔 08/10 00:29
推 toulio81 : 問題是我碰到的問題拿去問人,正確率也沒有高到哪 08/10 00:30
→ toulio81 : 裡去… 08/10 00:30
→ Riyar : 根本詐騙集團神器呀 08/10 00:34
→ dslite : 瑪斯克:尼是說宇宙的起源是假的? 08/10 00:35
→ bnn : 畢竟新聞台的目的就是造謠啊 08/10 00:35
→ TaiwanUp : 台灣已經是世界上數一數二的AI大國 該知足了 08/10 00:36
推 toulio81 : 話說反對AI的怎麼發言都那麼情緒化啊? 08/10 00:38
→ c58264cathy : 人類製造假消息太多 08/10 00:39
推 bj45566 : 有(又一個!)自以為專業的人以為 Google 是資料庫系 08/10 00:40
→ bj45566 : 統? wwww 08/10 00:40
推 henryyeh5566: Magi系統才是唯一解 08/10 00:41
→ bj45566 : 「台灣已經是世界上數一數二的AI大國」???推文 08/10 00:41
→ bj45566 : 中的笑話一個比一個好笑,嘻嘻 08/10 00:41
推 kaiDX : AI說得謊應該比記者少很多 08/10 00:43
→ Brioni : 記者媒體也很常歐北共 08/10 00:44
推 j147589 : 呵呵 智障才會全信 所以我每次問都會驗證一下 08/10 00:49
→ TaiwanUp : 第一美國 第二台灣 我有說錯嗎? 08/10 00:49
→ iio : 有 而且還錯得頗好笑 08/10 00:50
→ TaiwanUp : bj4不就很懂google 是Google搜尋大師 08/10 00:51
推 tpegioe : 人都有幻覺了 08/10 00:54
推 dwood123 : 隨著晶片跟通訊網路的進步,各專業領域的AI發展其 08/10 00:56
→ dwood123 : 實才剛開始 08/10 00:56
推 totomo168 : 只拿來當翻譯用 08/10 01:02
推 AndFly : 人也整天在唬爛啊 比如某Y 08/10 01:02
推 dos01 : 現在一堆都還只是用大數據的掛羊頭仔 能不能進到AI 08/10 01:02
→ dos01 : 的領域都很難說 哈哈哈哈 08/10 01:02
推 bj45566 : 台灣 AI 世界第二,再妄想啊盡寫些丟人現眼的笑話 w 08/10 01:05
→ bj45566 : www 08/10 01:05
→ TaiwanUp : 不然你講誰第二 講來讓人笑笑 08/10 01:09
→ piggywu : 自從感覺ChatGPT會被人類情緒影響後,就純當作作文產 08/10 01:11
→ piggywu : 生器了. 08/10 01:11
推 wingtoya : 有朝一日工廠的生產線也會變成AI在管吧 08/10 01:13
推 xb339531 : ai 對影像處理上的進步覺得還有很大的應用空間 08/10 01:15
→ TaiwanUp : 先猜你應該又在google"極具公信力"美國第二的排名ww 08/10 01:17
推 bj45566 : 有那篇權威的科技刊物發文說過台灣的 AI 世界第二? 08/10 01:17
→ bj45566 : 成天只會妄想 08/10 01:17
推 dos01 : 產信仔一堆刁民 不可能 08/10 01:17
→ dos01 : 到頭來還是會要用人去管人 08/10 01:18
→ TaiwanUp : 未看先猜中或最贏XDDD 08/10 01:19
推 c88tm : 其實是人類活在集體幻覺中啦哈哈 08/10 01:20
推 bj45566 : 又在妄想 wwww 要知道哪國 AI 強只要去那幾個 AI 08/10 01:20
→ bj45566 : 頂級會議看錄取論文的來源機構就清清楚楚,哪需要 08/10 01:20
→ bj45566 : Google 08/10 01:20
推 bj45566 : 中國在 AI 研究和商業產品本來就是穩坐世界第二, 08/10 01:23
→ bj45566 : 不知道要可悲到那種程度的政治腦才會無視這個事實 w 08/10 01:23
→ bj45566 : www 08/10 01:23
推 bj45566 : 之前貼 IEEE 的報導你都當成笑話看,這種行為讓你 08/10 01:25
→ bj45566 : 自己變成貨真價實的笑話 08/10 01:25
推 bj45566 : MIT Technology Review 也有一樣結論的專文,只是 08/10 01:27
→ bj45566 : 當初我沒截圖下來 08/10 01:27
→ TaiwanUp : 果然 中或最贏來了 睡前記得all in中國股市 08/10 01:28
推 WWIII : 崩 08/10 01:29
推 bj45566 : 在高科技界會把 IEEE 和 MIT 當笑話的,絕對是自己 08/10 01:29
→ bj45566 : 不自知的人體笑話 08/10 01:29
噓 blackstyles : 隨便問一個劇情就開始創作 根本就是廢物 08/10 01:31
推 sorryla : 確實,早已全力空,這禮拜賺的笑呵呵 08/10 01:32
推 mc2834 : 自己不會提問,然後怪chatGPT有幻覺…人類可憐那 08/10 01:42
推 WLR : ChatGPT就尬聊機器人,不是真知傳遞者 08/10 01:43
推 ejnfu : 我來總是改善的 08/10 01:50
→ oz01 : AI為服務人類而生→人類會說謊→AI說謊給人類聽。客 08/10 01:59
→ oz01 : 製化怎麼了 08/10 02:00
推 SiFox : 人類:你會消滅人類嗎? 08/10 02:15
→ SiFox : AI :不會喔,鳩咪~ (說謊 08/10 02:15
推 brolli : 從AI修改維基開始,擴大為搜尋引擎的一切 08/10 02:26
推 STARKWANG : 他也懂沒根據唬爛就對 08/10 02:31
→ chenpfu0394 : 幻覺3小. AI有吸是不是 08/10 02:39
推 tn00371115 : ai跟元宇宙不是一個層次的東西 08/10 02:51
→ wonder007 : 我們期望他有創造力 但又不希望他太有創造力 人類 08/10 03:02
→ wonder007 : 真難搞 對文字接龍模型的要求還真高 08/10 03:02
推 kevin31a2 : 訓練資料真真假假? 08/10 03:02
→ wonder007 : 要論幻覺版上一堆看多看空的文章也很幻覺 08/10 03:03
推 bravo223999 : 微積分有用嗎,我去菜市場只要加減,可能連乘除都不 08/10 03:04
→ bravo223999 : 用啊 08/10 03:04
推 kopolo : AI鬱金香 08/10 03:15
推 Page122 : 有價值的資訊不可能由AI產出 08/10 03:33
推 Fegnzi : ChatGPT在意的是他說話像不像人類而不是講的話正不 08/10 03:40
→ Fegnzi : 正確,使用者抱著正確的期待就沒問題了,這就跟goog 08/10 03:40
→ Fegnzi : le有時候會有錯誤資訊一樣,你自己要判斷正不正確 08/10 03:40
推 stocktonty : 鬼故事開始了www 08/10 03:41
推 dos01 : 好喔 給出錯誤的資訊 然後你要怎麼用錯誤的資訊來 08/10 03:45
→ dos01 : 營利? 去當五毛網軍? 哈哈哈哈 08/10 03:46
推 stocktonty : 2.3月在火的時候問了幾百個問題就發現一些奇怪缺點 08/10 04:19
→ stocktonty : 現在股價開始殺了才冒出鬼故事 顆顆 08/10 04:19
推 guanting886 : 人從宗教誕生那一刻就在那裡瞎掰一堆東西了 08/10 04:36
推 guanting886 : ChatGPT 很好用啊 你就當作全自動Yahoo姿勢佳 08/10 04:38
→ guanting886 : 比如你要做某一個冷門到不行的程式設計,那行的領 08/10 04:40
→ guanting886 : 域頂多歐洲人比較知道 文件也是好幾百頁 你要看也 08/10 04:40
→ guanting886 : 沒那個時間抓重點 08/10 04:40
→ guanting886 : 問一下GPT4 人家就幫你整理出來, 08/10 04:40
→ guanting886 : 還在抓文章重點、摘要 這個模型還能幫你整理出來 08/10 04:41
→ guanting886 : 任何語言都不弱 08/10 04:41
推 smallcar801 : 離通用ai還遠,生成ai不知道對錯,他只是提供最多 08/10 04:42
→ smallcar801 : 人喜歡的答案,所以怎麼下prompt 很重要 08/10 04:42
→ guanting886 : 你也不用全然相信,因為就連人講的話都不沒有100% 08/10 04:43
→ guanting886 : 正確了 你要一個預訓練模型期待100%對是期望過頭 08/10 04:43
→ guanting886 : 還是你不會利用工具省你時間 08/10 04:43
→ guanting886 : 給prompt 要用在 davinci model 08/10 04:44
→ guanting886 : ChatGPT 你就當做一個學太多的東西的工具人就好 08/10 04:45
→ guanting886 : 那兩個Model差非常多 08/10 04:45
→ mopigou : 特斯拉還有幻視哩 08/10 04:57
推 sdf0419 : 吸太多? 08/10 05:06
推 dos01 : 欸不是 我老早就說那東西是尬聊APP了 又不是今天才 08/10 05:24
→ dos01 : 開始酸 08/10 05:24
推 a0211166 : 人自己各種幻想 人工智能幻覺一下怎麼了 08/10 05:32
推 aja1008 : ChatGPT一不小心要變成wingman了! 08/10 05:37
→ simo520 : 生成式的不太行 08/10 05:50
推 umgym : 想跟人類一樣話唬爛,ai也想要有人性? 08/10 06:11
推 jceefailurer: 捏造事實=\=寫故事 08/10 06:14
推 ihsineon : 網路垃圾資訊太多,AI只是個搜集者,中國又淫了 08/10 06:24
推 tmdl : 真的會去相信ai 提供的資料的人 本身腦袋就不好 08/10 06:31
→ tmdl : 我都只相信黨說的 08/10 06:31
推 iammi21 : 還停留在Ai=chatgpt? 注定賺不到錢 08/10 06:37
推 jboys75 : 不會用就不會用。你Google wiki 常常也是一堆垃圾資 08/10 06:38
→ jboys75 : 訊。你會不用這兩個?當然也是作為參考 08/10 06:38
推 amethystboy : 就是個比較厲害的文字接龍小工具 到底期待什麼 08/10 07:00
推 zaqimon : 人類一樣也會瞎掰說謊啊 有差嗎 08/10 07:07
推 YCL13 : 把記者寫的文章從訓練資料庫應該會有明顯改進吧 08/10 07:10
→ YCL13 : 不然這種行為就是很真實存在的呀 08/10 07:11
推 herculus6502: 就告訴你是 chat 還跟它認真 08/10 07:37
推 uranus99 : 說沒關係的那些人知道馬斯克正在推AI版自動駕駛嗎 08/10 07:40
推 s203abc : 廢物 08/10 07:42
→ s203abc : 優化自己都不會嗎 08/10 07:43
推 pokemonmen : 跟人講話也是一堆錯誤資訊 有差嗎 08/10 07:50
→ s203abc : 你會跟一個資訊錯誤講話嗎 08/10 07:51
推 xdbx : 我問它當地有什麼景點就破功了 08/10 07:54
→ xdbx : 它就只是一個大資料庫 然後亂湊東西給你 08/10 07:54
推 kkithh : 問題是它沒有說謊的自覺阿 08/10 07:59
推 a12838910 : 寫程式蠻好用的 08/10 08:01
推 internetms52: 經過切片重組後的事實其實與我們認知的事實相距甚 08/10 08:03
→ internetms52: 遠 08/10 08:03
→ Casper50 : 自己寫文章 讓他幫我改 都改的比教授的好 08/10 08:07
推 downtoearth : AI在協助工作上已經可以用了 至少我已經在用了 08/10 08:10
→ downtoearth : 你可以當作 你在跟一個無限知識儲備的人討論 08/10 08:15
→ downtoearth : 直到你對你要做的事 能問出正確的問題 或是 得到 08/10 08:16
→ downtoearth : 靈感 08/10 08:16
→ JOKO58802218: 生物演化惹(抖~ 08/10 08:18
推 sakungen : ChatGPT 其實就是把查到的資料完全不經查證,用自 08/10 08:18
→ sakungen : 己的話加以改寫。之前用來問專業問題,出現前後矛 08/10 08:18
→ sakungen : 盾,或是其實上下兩段在講一樣的事情用不同的方式 08/10 08:18
→ sakungen : 去講。 08/10 08:18
推 dream1124 : 這就是為什麼判斷決策類的事情我不愛參考它的資訊 08/10 08:19
推 allenJr : 其實那個電子產品不是大大影響人類未來,元宇宙電 08/10 08:19
→ sakungen : 預設它會給你完全正確的答案,本來就是人類不負責 08/10 08:19
→ sakungen : 任的行為。 08/10 08:19
→ allenJr : 池電動車超導體或AI,其實都是一直在進行的研究及 08/10 08:19
→ allenJr : 產出,在題材出來前及冷卻後他們的研發也沒停過, 08/10 08:19
→ allenJr : 炒股需要題材以及人們會自動幫忙編造還不存在的未 08/10 08:19
→ allenJr : 來而已 08/10 08:19
→ dream1124 : 做沒有標準答案的事情時,它或許可以給些靈感 08/10 08:20
→ dream1124 : 但如果要了解接近事實的真相以決策判斷,那它沒比 08/10 08:21
→ dream1124 : 搜尋引擎好用 08/10 08:21
推 downtoearth : 比如我上一次用它來協助工作 是我需要開發一個功能 08/10 08:22
→ downtoearth : 但是我需要統計學方面的知識 問題是 我的統計程度 08/10 08:23
→ downtoearth : 只有20年前大學那三個學分 一開始我連問出正確 08/10 08:23
→ downtoearth : 問題的程度 都沒有 但是現在那個功能做完了 08/10 08:24
推 willy4907 : 昨天才問一個空壓管尺寸問題 結果跟我胡說八道一堆 08/10 08:27
→ willy4907 : 問bard才得到正確答案 08/10 08:27
→ jceefailurer: chat=講贛話 08/10 08:31
推 aowen : 還好吧 你看妓者發文不也是這樣 08/10 08:36
推 likeyousmile: 應該要列出信心值 08/10 08:37
推 Sixigma : 光是能得到認知外的資訊就無價了,不奢求AGI 08/10 08:41
噓 zalasas39 : 放消息吃貨 08/10 08:50
噓 GooglePixel : 論文都可以造假了 自己google到的資料也是需要判斷 08/10 09:05
推 stosto : 再多的幻覺都比一堆股民正常 08/10 09:05
→ GooglePixel : 現在的ChatGPT就是十年前的維基百科 08/10 09:06
推 Samurai : 不要胡說八道,維基百科不會跟你對話 08/10 09:13
推 Eric102990 : 我不知道對其他人來講怎麼樣啦 但至少我原本excel 08/10 09:26
→ Eric102990 : 很爛 靠問Chat GPT一些網路比較難查到的問題 功能 08/10 09:26
→ Eric102990 : 或小技巧 努力學一下就用得很精熟了 08/10 09:26
推 SiFox : 應付人類政客說謊,就他媽夠痛苦了... 08/10 09:31
→ SiFox : AI說謊,是打算搞死誰? 08/10 09:32
→ SiFox : 會瞎掰說謊,根本不能發展 08/10 09:33
推 Aacarob : BI 08/10 09:41
推 rainbow321 : 完了 元宇宙又來了 08/10 09:43
→ kairiyu : AI說謊會比人說謊厲害??? 看看媒體XDDDDD 08/10 10:22
推 Lhmstu : 還好吧,人類說謊更是出神入化 08/10 10:30
→ j198811 : 人都會黑白講了你為什麼要全信他 08/10 10:30
→ shiyangfoo : gpt真的蠻多資料錯的XD 不信 你試試看問他 陽曆生日 08/10 10:37
→ shiyangfoo : 的農曆日期是幾號 這個都能報錯我覺得偏離譜 08/10 10:38
推 SiFox : AI扯謊跟人學的,而且只會更厲害,因為不用吃喝睡 08/10 10:41
推 chichung : app版本跟siri一樣智障亂回話是神在哪 08/10 11:07
噓 LarryBird : 早說了 使用者常常分辨不出它是不是在唬爛 08/10 11:18
→ BryceJames : 才剛開始發展就要求這麼多比較低能吧 08/10 11:25
推 ck8861103 : 小時候都學過盡信書不如無書 怎麼到了AI卻當聖經呢? 08/10 11:32
推 puam4444 : 要投入即時權威控制的人工吧 08/10 11:32
→ ck8861103 : AI只是給你個大方向 驗證還是要靠自己 08/10 11:33
推 Vladivostok : 連舌頭味覺分布圖更正不了的世界,AI有幻覺很正常 08/10 11:34
推 sharline1013: 這種人早在Ai 出現前就是這樣了吧,工作上看好幾次 08/10 12:12
→ sharline1013: 別人給的資料直接貼就交的 08/10 12:12
→ mono1023 : 就只是比較快的google搜尋... 08/10 13:25