大家看好台灣智慧醫療產業嗎 - 工程師

Table of Contents

※ 引述《Qoo2 (?)》之銘言:
: 最近台灣掀起一陣子智慧醫療產業的風潮
: 我查到的就有
: Q(QOCA),H,A(AxxS),C,AxLab等等
: 大致上是
: 1.軟體:利用台灣完善的醫療環境和資源做人工智慧醫療雲運算整合平台系統
軟體一點機會都沒有!

大多數保守國家來說,被醫生醫出問題,跟ai吃出問題
你看哪個會引起軒然大波
對保守派的社會來說,就算統計數字告訴你 ai 出問題的機率是
百萬分之一,醫生誤診的機率是 萬分之一
但是人人都能接受醫生誤診,沒人能接受 ai 誤診

看台灣就知道,台灣開車撞死人只要不是重大違規
新聞都已經懶得報了
你自駕車撞死人看看,絕對上頭條!

更不用說台灣牛步化的法規根本跟不上時代的進步
所以要到接受 ai 看診很可能要到下一個世代

我今年做四望五了,我等L5自駕車等到頭髮都白了....

甚麼你說要賣國外?
台灣的純軟?

: 2.硬體:不甚了解,大概像http://www.qoca.net/
做硬體基本上就跟做哪一行沒太大關係了
演算法不是你在開發,唯二能做的就是 cost down 跟拚良率


--

All Comments

Emma avatarEmma2020-08-25
中國醫好像有ai門診
Queena avatarQueena2020-08-27
沒有人可以接受醫生誤診吧 只是醫生誤診我知道要告醫生
Rebecca avatarRebecca2020-08-28
AI 誤診你先跟我說要告誰就好了
Zora avatarZora2020-08-29
一起告,我覺得最好。
Carol avatarCarol2020-08-29
所有的無人產品最大的一個問題是 出事誰背鍋? L2不用
背鍋又潮潮他不香嗎?
Olivia avatarOlivia2020-09-03
我覺得AI 最香的大概是無人外送車 載人太麻煩了
載貨和食物就好了
Christine avatarChristine2020-09-05
AI沒辦法說服大眾,不檢討工程師、檢討使用者?
Steve avatarSteve2020-09-07
本來就怪使用者啊~ 這邏輯不就是篩檢有0.001%的偽陽,
所以使用者就吵著說不是100%準確我才不要篩, 啊不檢討
使用者低能檢討誰?世界上哪個東西做到100%安全的?飛
機百萬之一失事率你也別搭啊~
Jack avatarJack2020-09-09
搞錯了吧,是篩出一堆偽陽性後,後續的處理?給那些塞爆
醫院 ,排擠中風心肌梗塞等其他重症病人,又沒有達成本
來的目的:防疫
Rosalind avatarRosalind2020-09-13
這問題是醫生vsAI,並不是要求0誤判,在那亂扯
Steve avatarSteve2020-09-16
現在科技就是還沒辦法說服大眾AI比傳統醫療更好
只是個工程師沾沾自喜的產品
Quintina avatarQuintina2020-09-17
試劑的可靠度本來就是個很大問題啊
Sarah avatarSarah2020-09-19
三十幾年來軟體發展毫無成就,還想搞AI?向美國買快些.
Olga avatarOlga2020-09-23
笑死了AI要怎麼診斷疾病,頭很痛欸
你們是不是以為疾病只有感冒而已
Kelly avatarKelly2020-09-25
AI有一天自己寫AI也不需要工程師了
Catherine avatarCatherine2020-09-27
你們是不是以為診斷疾病很簡單啊,呵呵
Freda avatarFreda2020-10-01
看數字就能診斷疾病,這種話連醫學生都不敢講
Lily avatarLily2020-10-05
AI用在這種領域現在研究方向都是朝向加速判斷
不會有那種判出來要你切老二就真的切下去的事好嗎
Gary avatarGary2020-10-09
啊這篇前提不就是AI誤判率比醫生低?主題是討論在此前
提下大眾的接受度~ 不是在討論AI跟醫生誰準, 連前提都
看不懂?這邏輯XDD
Robert avatarRobert2020-10-12
不過是電腦輔助系統的強化罷了,還真的有電腦智慧?
Hedwig avatarHedwig2020-10-14
人會做的電腦才會做,快一百一千倍罷了,但人不會做的,電腦
再快也不會做.
Margaret avatarMargaret2020-10-17
AI永遠不會告訴你核融合電廠怎麼設計.
Puput avatarPuput2020-10-19
我當然知道前提是AI誤判率低,但誤判率低不代表更好
,只比誤判率是標準工程師邏輯
Poppy avatarPoppy2020-10-19
譬如AlphaGo輸李世石的那場,犯了一個低級錯誤
Rachel avatarRachel2020-10-24
大眾不可能接受AI在醫療上犯低級錯誤的,即使誤判率
再低。
Jacky avatarJacky2020-10-26
醫生誤判率高,但誤判的可能都是難解的case,大眾反
而可以理解可以接受。
Margaret avatarMargaret2020-10-30
我不是說AI不可能成功,但光憑低誤判率是不夠的,要
讓市場接受還有很大一段路要走
Regina avatarRegina2020-10-31
圍棋就是快一萬倍計算啊...你叫AI 設計出一個轟動全球的
遊戲給我們看看。計算/創新差很多吧
Rebecca avatarRebecca2020-11-04
沒錯,因為人類執行醫療是有rule、有SOP的,並且知道
在這個rule下哪些情況可能出錯、出錯率多少
Regina avatarRegina2020-11-05
而現在主流AI學習的方法,是沒有rule的,這樣誤判率再
低都很難說服人
這個問題沒解決前,AI都只能輔助,還是要醫生判斷
Olga avatarOlga2020-11-10
你舉例的自駕車也一段,其實軌道駕駛早就有自駕了,大
Tom avatarTom2020-11-14
家也不會反彈,搭捷運搭高鐵都搭很爽
因為軌道自駕寫得出rule,碰到哪個sensor就煞車之類的
Annie avatarAnnie2020-11-19
但在路上開的自駕車,也許有rule,但似乎還不是很明確
沒有辦法讓所有的人都信服,在這rule下他是安全的
Zanna avatarZanna2020-11-23
而AI診斷,很明顯,離得更遠