2026年5月12日 星期二

  《 不確定時代的科技治理:當科技政策不再有最佳解 》

(台灣如何在變動中建立「可調整的制度能力)




當前科技政策最根本的困境—

"當世界變動的速度,超過制度調整的速度,政策該如何做出有效決策?"

這不只是AI的問題。從半導體供應鏈重組,到淨零轉型的能源選擇及發展路徑,台灣正同時面對多個高度不確定的決策場域

過去那種「找出最佳解、按圖施工」的政策模式,正在快速失效。

問題不在於我們不夠努力,而在於我們仍用過去的方法,處理已經改變的世界。


、從「情境分類」看政策失靈我們其實誤判了問題

多數科技政策隱含一個假設:問題是可以被分析清楚的。

只要蒐集足夠資訊、仰賴專家判斷,就能設計出最適制度。

但現實正在改變。

戴夫.斯諾登(Dave Snowden)提出的「肯尼芬框架」(Cynefin Framework )將世界分為五種情境並強調不同情境需要不同決策邏輯。

  1. 簡單(Clear)、
  2. 繁雜(Complicated)、
  3. 複雜(Complex)、
  4. 混亂(Chaotic)
  5. 失序(Disorder)

  • 傳統科技政策往往假設世界是「繁雜的情境

只要投入足夠專家知識,就能找出最佳解。例如過去的產業政策,多半依賴技術評估、成本效益分析與長期規劃

然而,當前許多科技議題—例如生成式AI的社會影響、資料治理、甚至碳捕獲、利用與封存(Carbon Capture Utilisation and Storage,CCUS)的商業模式—

  • 其實更接近「複雜情境」

因果關係不清楚,結果無法預測,只能透過試錯演化逐步形成。

當政府誤把「複雜問題」當成「繁雜問題」處理時,就容易出現政策失靈

例如試圖以一次性法規全面規範新興科技,或用固定補貼機制推動尚未成熟的技術,往往會導致制度僵化,甚至抑制創新。

當技術快速演進,應用場景與風險型態不斷變化時,任何試圖「一次訂好規則」的治理方式,都會很快過時。歐盟AI Act在生成式AI爆發後被迫調整,正是典型例子。

台灣也面臨相同挑戰。無論是AI基本法,或各類風險分類架構,其背後都隱含一個前提:風險是穩定且可分類的。但實際上,風險本身正在快速演化

當我們把一個「會變的問題」,當成「可以解完的問題」政策失靈幾乎是必然結果。


二、比「做對」更重要的,是「不出大錯」策略的核心不是效率,而是存活

「風險說」提醒我們

策略的本質,不在於最大化報酬,而在於管理不確定性、確保組織存活。

「風險說」強調三個核心觀點:

  • 不確定性是常態,而非例外
  • 決策的重點在於控制下行風險,而非追求最佳解
  • 策略應保留彈性與選擇權
如果問題無法被完全理解,那策略的目標也必須改變。

將這套思維放入科技政策,可以發現一個關鍵轉變:

政府不再只是「規劃者」,而是「風險配置者」。

  • 在穩定環境中,我們追求的是「最好的選擇」;
  • 但在高度不確定的情境下,更關鍵的是避免「致命錯誤」。

因此,產業政策的重點不再是「選贏家」,而是「避免輸得太重」。

在策略本質上更接近「投資組合理論」。

這種思維轉變,已經出現在半導體政策中。過去,效率與集中帶來成功;但在地緣政治風險升高後,「分散」與「韌性」開始成為新的關鍵字。台積電赴美、赴日設廠,不只是產業布局,更是風險重新配置的結果。

以能源轉型為例。台灣一方面推動再生能源,另一方面面對供電穩定與產業需求的壓力。如果政策過度押注單一技術路徑,一旦預期落空,整體系統將承受高度風險。

同樣地,碳捕獲、利用與封存(Carbon Capture Utilisation and Storage,CCUS)與氫能仍處於成本與商業模式不確定的階段。若過早選定主流技術,可能導致資源被鎖定在錯誤方向。


政策需要「可以試錯的空間」

那麼,如果不能預測、也不該押注,政策該怎麼做?

答案不是更精準規劃,而是允許有限度的試錯。

複雜情境中,有效的決策方式往往是「先小規模嘗試,再快速調整」

政策不應追求一次到位,而應設計出可以學習的過程。

台灣的金融科技監理沙盒,就是一個具體例子。透過在可控範圍內開放實驗,政府得以同時觀察創新與風險,並將經驗回饋到制度設計。

但這樣的機制,尚未普遍存在於其他科技政策領域。

例如:

  • 生成式AI是否可以建立跨部會的試驗場域?
  • 碳費制度是否可以更制度化地進行滾動調整?

這些問題的關鍵,不在於答案本身,而在於制度是否允許「邊做邊修」。

政策的核心,不只是制定規則,而是設計一個能持續修正規則的機制。


、從「控制風險」到「設計韌性」

當不確定性成為常態,我們重新思考科技政策目標:
「韌性」(resilience)逐漸取代效率(更低成本、更高產出)
成為新的政策核心。

在複雜系統中,風險無法完全消除,因此科技政策的重點應轉為:
  • 建立冗餘(redundancy):多元能源結構,而非單一依賴。                        (效率往往建立在「去除冗餘」之上,也因此讓系統變得脆弱)
  • 提升回復能力(recovery capacity):數位基礎設施的備援設計
  • 強化早期訊號辨識(early signal detection):透過資料監測與跨部門協作

這意味著:

  • 即使成本較高,也要保留備援;
  • 即使效率下降,也要分散風險。

台灣在幾個領域已經開始轉向。

  • 能源系統強調儲能與電網韌性,
  • 數位基礎設施重視資安與備援架構,
  • 半導體產業推動國際布局。

這些看似分散的科技政策,其實指向同一個目標:確保系統在出錯時仍能運作。

以半導體供應鏈為例,疫情期間的晶片短缺顯示,過效率導向(just-in-time)反而削弱系統韌性。美國、日本與歐盟近年推動在地製造與供應鏈重組,某種程度上正是從「效率優先」轉向「韌性優先」。


關鍵不在預測,而在調整

對台灣而言,挑戰不在於技術或產業能力,而在於制度是否跟得上變化。

我們過去擅長在相對穩定的環境中做出正確選擇;但現在的問題是,未來越來越難預測。

在這樣的世界裡,真正重要的能力,不是「看得準」,而是「改得快」

這意味著,科技政策必須具備三種特性:

  • 可以調整,而不是一次定型;
  • 可以回饋,而不是延後修正;
  • 可以協作,而不是各自為政。

當制度具備這些能力時,政策就不再是一份靜態文件,而是一個持續演化的系統


在不確定中建立制度優勢

台灣作為全球科技供應鏈的關鍵節點,同時又面對地緣政治與產業轉型壓力,科技政策必須同時處理高複雜與高風險的問題。

政策的成功標準,不再是是否一次到位,而是是否能持續演化。

具體而言,可以思考三個方向:

  • 政策設計「模組化」:避免一次性全面立法,改採可調整的制度架構
  • 建立跨域實驗機制:讓AI、能源、數據治理等政策可以在受控環境中測試
  • 強化政策回饋循環:透過數據與利害關係人參與,快速修正政策

更重要的是,政府角色需從「解決問題的人」,轉為「設計問題解決機制的人」


七、結語:科技治理應追求「最佳解」到建立「適應性治理」

科技正在重塑世界,但制度的角色,仍然是提供穩定。兩者之間的落差,正是當代治理最艱難的課題。當問題無法被完全理解,策略無法一次到位,「最佳解」本身就不再存在。

科技政策邏輯根本轉變:

從追求「最佳解」(optimal solution),轉向建立「適應性治理」(adaptive governance)。

複雜情境下,政策不應該一開始就追求完美設計,

而是應採「試探—感知—回應」(probe–sense–respond)的方式。

在動態複雜的時代,科技政策的治理

  • 不在於避免錯誤,而在於能否在錯誤中快速調整;
  • 不在於預測未來,而在於面對不確定仍能前進。
而當代科技治理最關鍵的能力:
在未知中行動,在錯誤中學習,在變動中維持穩定
  • 政策不再是藍圖,而是一個持續調整的過程;
  • 治理不再是控制,而是引導與適應。
當科技不斷改變未來的輪廓,真正的競爭力,不只是技術本身,而是我們是否擁有一套能與不確定共存的治理思維。




 《 台灣在人工智慧浪潮中的競爭策略 之芻議



台灣AI產業機會在哪裡?

全球 AI 浪潮正以超乎預期的速度席捲各個產業,而站在這場防禦技術革命核心的,正是面積僅三萬六千平方公里的台灣。這座島嶼,卻掌握著全球最精密晶片的製造命脈。

當輝達單季營收在三年間(2023年到2026),從 71.9 億美元飆升至 680 億美元,全球供應鏈幾乎已來不及重組。速度快到一個程度,時間本身,已成為企業最大的風險。這樣的現實,一方面構成台灣難以取代的護城河;另一方面,也逼迫我們思考:除了硬體製造之外,台灣下一個能定義自身價值的位置,究竟在哪裡?


硬體:台灣真正的護城河

電子時報社長黃欽勇提出了一個大膽的命題:「硬體會吃掉 AI」

  • 軟體的事業模式很難複製,但複製的成本很低;
  • 硬件的事業模式很容易複製,但複製的成本極高。

這是兩個截然不同的世界。

當算力需求從雲端下沉到邊緣設備,台灣這五十年來累積的硬體底蘊和產業密度,正成為全球 AI 最不可繞過的至高點鴻海、廣達、緯創,AI服務器的供應鏈從筆電製造一路延伸而來,二三十年的製造進程信任與管理效率,根本沒有人能瞬間在複製。這不是誇口,而是結構性的競爭優勢

黃欽勇指出,台積電 2026 年的資本支出預估將達到 520 億至 540 億美元,幾乎與獲利一比一對等這種「無人敢替代」的地位,讓台灣在全球 AI 供應鏈中穩居 C 位

當 NVIDIA 在三年內成長 9.5 倍時,背後的供應鏈根本不敢輕易更換夥伴,因為台灣人建構生態系的效能與彈性是全世界最好的。這種由「地小人稠」轉化而來的「供應鏈權威」,讓台灣在新竹、台中、大南方形成了一個無可複製的 DNA

台灣7級地震,半夜新竹塞車,工程師回公司,20分鐘就到了。台灣可能20分鐘可以到,對手要40分鐘,40分鐘就會造成很多人的心理障礙。「地團結人稠,是祝福,不是預言。」這個密度,才是台灣真正的產業護城河。

台灣在 AI 浪潮帶動下,經濟成長動能明顯升溫。2025 年 GDP 成長率達 8.63%,創下近 15 年新高;2026 年官方預估仍可維持約 7.7% 的高成長,顯示 AI 已深度牽動台灣整體經濟。

一方面,作為全球 AI 供應鏈核心,台灣資訊與半導體相關產業的整體產值已突破 1 兆美元規模。

另一方面,一座 2 奈米晶圓廠從建置到量產,往往需要 2 至 3 年;而高階晶片設計與驗證,同樣需要長時間投入與技術累積。這也意味著,在技術門檻、製程經驗與供應鏈整合優勢之下,未來 5 至 10 年,台灣半導體產業仍將持續領先全球。面對台積電赴美設廠所帶來的地緣政治壓力,

黃欽勇曾算過一筆帳:即使台灣對美國半導體政策全面開放,完全不限制台積電赴美投資,他仍認為台灣至少還擁有約十年的領先優勢。因為真正難以複製的,從來不只是單一工廠,而是整個半導體生態系長年累積的製程經驗、供應鏈協作與產業效率。

過去二十年,矽谷的神話告訴世界:「軟體正在吃掉全世界。」但到了 AI 時代,真正決定競爭門檻的,開始重新回到硬體能力本身。當 AI 算力需求以爆炸性速度成長,晶片製造、先進封裝、伺服器供應鏈量產能力,反而成為最難被取代的核心實力。台灣的價值,也因此不再只是「代工」,而是全球 AI 基礎設施不可或缺的關鍵樞紐。

未來,台灣不應只是接訂單,而應運用硬體優勢與東南亞、印度甚至中東國家合創共榮。例如:透過協助菲律賓建立手機產業,或是與澳洲在矽光子領域合作,將台灣的影響力從工廠延伸至標準與服務。


AI應用版圖:機會的開發

然而,硬體的護城河並不等於應用的全面勝利。

麻省理工學院(MIT)集體智慧中心的一份最新研究,揭示了 AI 市場的「極度偏食」:全球企業投入 AI 的預算中,最頂端僅 1.6% 的任務,竟然吸納了超過 60% 的市場價值

當資金與技術瘋狂壟斷在數位內容生成、問題解答「資訊處理」領域時,台灣——這個掌握全球 93% AI 伺服器產能的硬體巨人,究竟該如何在那 1.6% 之外的遼闊藍海中,定義自己的下一個黃金十年?

AI的投資高度集中,但是真正涉及物理操作、人際深度交流最終決策的市場的應用領域仍為空白,AI在許多「思考」與「互動」任務的滲透率幾乎為零例如:給予指示、授權、分派任務,以及接收。這些任務往往涉及決策與責任歸屬,也必須牽扯到人與人的溝通,目前企業仍普遍傾向由人類承擔最終決策責任。

麻省理工學院的研究也同樣指出,「EPOCH」人類五大核心能力架構強調,人類在同理心、現場感、觀點、創造力希望等五個維度,有著人工智慧難以取代的優勢。

對台灣創業者而言,這些尚未被充分開發的 AI 應用領域,並非技術上的障礙,而是下一波值得搶進的藍海市場。真正的關鍵,在於誰能率先打造出理解複雜社會脈絡掌握人類行為與統計機制的 AI 系統。唯有如此,才有機會開啟這塊仍待深耕的巨大市場。


從雲端到地端:台灣軟硬整合的新機遇

中華電信董事簡立峰曾任Google台灣主要董事總經理,指出了台灣AI產業的三大機會。

第一,美中新冷戰下的AI軍備競賽活動下,紅色供應鏈受阻,美系市場以台灣為主;

第二,從雲端AI走向邊緣AI軟硬一體化的大時代正在到來;

第三,台灣即將成為超高齡社會,這是一個黃金十年的創新窗口。

尤其是邊緣AI(Edge AI)的機會,值得台灣企業深入佈局。

當 AI 進入智慧手機、PC 與各式 IoT 裝置,場景變得多元且零碎,這並非雲端巨頭(CSP)的強項

邊緣AI的應用場景多元,雲端大廠難以主導;技術上需要高度軟硬整合,可開源運用AI模型,硬體大廠因此有機會擴展智慧服務。

無人機、智慧醫療設備、智慧工廠、智慧安控及智慧自行車,這些都是台灣可以在「硬體當載體」的策略下,將軟體能力嫁接到其上的絕佳領域。

台灣硬體大廠若能以硬體為載體,發展具備「物件辨識」與「推理能力」的智慧服務——例如能溫馨提醒長者東西放哪裡的 AI 相機,或是智慧醫療與安控設備,就能避開與矽谷巨頭在通用型模型上的正面衝突

然而,簡立峰也不隱言挑戰的所在。 

Google前董事長艾瑞克.施密特曾在史丹福演講中直言,台灣的硬體很癱瘓,但軟體很糟糕。這句刺耳的評論語,指出台灣最深刻的結構性問題:

台灣在整個IT產業的關聯營業額高達1.18兆美元,但軟體比例不到1%,應用上有很大的突破空間,只要對方向。


政策佈局:從AI新十大建設到主權AI

面對美中分流與地緣政治,台灣政府正透過「AI 新十大建設」(114年~117年)加速產業轉型

這項方案的核心不只是算力,而是要打造一個「智慧科技島」

這是一場從數位基磐(算力建設與語料庫)到人才培育的全方位競賽,旨在降低中小企業進入 AI 的門檻,讓「百工百業」都能透過 AI 賦能提升產值

為因應 AI 與產業轉型浪潮,政府正推動六大區域產業生活圈布局:

  • 北北基宜發展安控科技與海洋創新,
  • 桃竹苗深化半導體矽谷生態系,
  • 中彰投雲加速精密機械智慧化升級,而
  • 嘉南高屏則打造 AI 產業廊帶,串聯智慧農業與南部科技聚落。


超高齡社會:應被重視的巨大機會

台灣有一個正在形成、卻尚未充分被產業重視的巨大機會——超高齡社會

台灣正式進入超高齡社會,而這個過渡的第一個十年,往往是創新的高峰:

高齡者尚未完全退出職場,年輕人與高齡者共創的契機幾乎豐沛。

德國曾即將成功發展綠能科技,日本成功發展健康照顧科技,台灣能否藉AI,避免走向失落三十年?

這個問題,既是預警,也是召喚。 

AI居家照護、智慧醫療器材、遠距診療系統、認知輔助工具──

每個品類都龐大且真實的社會需求。

台灣不缺硬體製造能力,不缺醫療領域的數據積累,缺乏兩者一體化的系統性思維,能夠在全球市場講述台灣故事的軟實力。


真正的挑戰:知用落差

《數位時代》每年評選全球AI百大企業,從全球770家公司中,考量未來發展性、創新能力、台灣產業相關性標準等,選出100家最值得關注的AI公司。

Anthropic、輝達、Perplexity等「AI怪獸」正以驚人的速度收縮全球產業格局。 

2026年是「AI推理市場爆發的元年」,電腦將轉變為大規模生產AI推理結果的「代幣製造機」,AI代理系統的普及將帶來巨大的攻擊突破。

在這場高速推進的 AI 競賽中,台灣面臨的關鍵挑戰之一,其實是「知用落差」——多數人已知道 AI 的重要性,卻仍缺乏真正落地應用與導入產業的能力。

相較於歐美與部分亞洲國家,台灣企業的 AI 導入率仍偏低。由於台灣長期以製造業為主的產業結構,AI 衝擊與轉型壓力雖然較晚浮現,但也意味著可供調整與追趕的時間窗口正在快速縮小。


結語:硬體是起點,不是終點

台灣AI產業的機會,在於缺乏整合的意志軟體突破思考

台灣廠商投資資料中心、雲端平台與各種應用服務,是讓台灣成為AI之島的關鍵路徑——最好的方式是民間自發性的力量,從各種創新事業模式來創造未來二十年台灣的競爭優勢。

半導體,曾是台灣對世界說話最有力的語言;但進入 AI 時代之後,台灣需要學會的不只是製造晶片,而是發展更多足以定義未來的新詞彙。

當算力變成國力,當邊緣AI走進工廠、醫院、老人住宅,當台灣的軟硬整合能力找到新的述說方式——那才是台灣AI產業真正開始說自己故事的時刻。







 《 員工「帶AI 上班」的企業治理問題 之芻議




在2026年的職場環境中員工自行購買並使用AI工具(俗稱「影子AI」或「Shadow AI」)來執行工作任務已成為常見的治理挑戰。

這種行為雖然可能提高個人效率,但會給公司帶來嚴重的治理、安全法律風險


以下是具體的公司治理問題:

1. 嚴重資料安全與機密洩漏風險

機密外洩: 

員工將公司未公開的財報、客戶資料、專案細節或程式碼輸入到未經公司授權的公開AI模型中,可能導致商業機密被用於訓練模型,從而外洩給競爭對手或公眾。

• 不安全的儲存: 

第三方AI服務的資料儲存政策不透明,公司無法控管這些資料的生命週期。

• 數據主權喪失:

公司無法控管數據的流向與儲存位置,一旦發生資安漏洞,企業將難以追蹤與問責。


2. 法律合規與智慧財產權爭議

智財權歸屬: 

使用AI生成的內容(如文案、程式碼、圖表)可能涉及侵權,或是無法取得著作權保護。若AI訓練資料包含侵權內容,公司可能面臨法律訴訟。

違反隱私法規: 

AI處理的是客戶或員工的個人資料,未經核准的傳輸可能違反相關隱私法規(如:GDPR或台灣的個人資料保護法)。

合規性違規:

在金融或醫療等高度監管行業,未經核准的工具使用可能違反行業法規(如 :GDPR、HIPAA),導致巨額罰款。


3. 風控失效與責任難以歸屬

虛擬員工失控: 

員工使用的AI Agent(代理)如果未經企業治理框架管控,可能成為不受拘束的「超級管理員」,存取不該看到的資料。

責任歸屬: 

AI提供錯誤決策、虛假資訊(Hallucination)或具偏見的結果,導致公司損失,公司難以追責(不知是AI的問題還是員工的操作問題)。


4. 品牌信譽受損

錯誤資訊與偏見:

AI 可能產生「幻覺」提供錯誤資訊,若員工未經查核就直接採用,將導致工作產出品質下降,嚴重損害企業品牌形象與公信力。


5. 管理失控與「Shadow AI」現象

影子AI (Shadow AI) 

公司缺乏對技術資產的掌控,不知道哪些AI工具在被使用,導致資安防禦出現缺口。

技術債與維護困難: 

如果員工離職或停止使用該AI,相關的工作流可能中斷,公司無法接手或持續維護。


6. 企業文化與員工信任危機

「捲」文化: 

AI的員工與不用的員工之間可能產生不公平的績效競爭。

裁員恐慌: 

員工私自使用AI可能出於工作量過大,但若被認為是用來取代人力,會引發員工對AI的抗拒心理,影響組織穩定。


建議治理措施

為了應對這些問題,企業應將管理邏輯從「圍堵」轉向「治理」:,將AI納入治理框架:

1.建立明確的 AI 使用準則 

明確規範哪些工具可用、哪些數據嚴禁輸入。

2.建立AI註冊制度 (Agent Registry) 

清查並納管組織內所有使用的AI Agent

3.提供企業版 AI授權工具:

透過購買受控、加密的企業版AI服務工具,減少員工自行尋找替代方案的需求,保障資料隱私。

4.落實最小權限原則:

設定AI只能存取執行任務所需的必要資料。

5.重新量化工作價值:

將員工的角色從單純「執行者」調整為「監督者」,並將這種隱形工作量納入職務說明。



資料來源 :
1. 徐瑞廷(2023)生成式 AI 為企業帶來哪些危機?


2.徐瑞廷(2023)公司裡誰在瘋生成式 AI?
BCG 調查:老闆一頭熱,9 成員工卻未受過培訓經理人

https://www.managertoday.com.tw/columns/view/67223


3.簡鈺璇(2023)生成式 AI 為 CEO 們帶來集體焦慮!

麥肯錫:企業導入新技術,應特別注意哪些事?經理人


4.
行銷資料科學(2025)【小心 #AI 副作用:新創企業面臨的三大風險與代價】

https://www.facebook.com/share/p/1DDNCfCNZh/

【小心 #AI 副作用:新創企業面臨的三大風險與代價】

生成式 AI(Generative AI)無疑是 #新創企業 最火熱的工具之一 🔥,它能自動寫文案 ✍️、做客服 💬、分析資料 📊,還能節省大量人力與時間。但越多企業開始導入 AI,也越多隱憂開始浮現。

根據《生成式人工智慧於成長駭客策略之應用》(Generative AI for Growth Hacking)這篇論文的實證研究 📚,AI 帶來的風險不只是技術問題 ⚙️,更關乎企業的組織、競爭與社會責任三大面向。

🔹 一、組織風險:AI 不是「用就好」,還要「用得對」

生成式 AI 的本質是一種「黑箱」(black-box)技術,也就是說,使用者常常不知道自己輸入的資料被怎麼處理,也無法確認產出的資訊是否正確。這種不透明性帶來四大組織風險:

1.資料隱私與安全

AI 工具可能會將我們輸入的資料儲存在雲端,甚至被其他模型學習、重用。這對於涉及客戶資料、商業機密的新創公司來說,是非常危險的行為。因此,該研究建議,只能輸入匿名、去識別化或加密的資訊。

2.偏誤與決策錯誤

AI模型的訓練資料多來自歐美語境,如果企業的市場在亞洲、非英語國家,就可能出現不適用的內容或文化錯判,導致錯誤決策。

3.失去人味的溝通

AI 雖然能寫出漂亮的句子,但內容有時千篇一律、缺乏情感與故事性,過度依賴會讓品牌溝通失去人味。

4.過度依賴 LLM 平台

很多新創把產品功能「綁死」在特定平台(例如OpenAI),若平台改版或價格變動,就可能造成服務中斷或成本失控。

🔹 二、競爭風險:AI 變快,但企業跟得上嗎?

技術升級得快,並不代表組織學得快。研究指出,AI 技術發展的速度,遠遠超過員工與組織的適應速度,這會造成幾種競爭壓力:

1.人才競爭與技能落差

企業必須投入更多資源訓練員工會用 AI,例如:prompt 設計、AI 驗證技巧等。這對資源有限的新創來說,是不小的挑戰。

2.「領先導入者」的迷思

雖然越早導入 AI 越可能搶下市場紅利,但若沒有做好風險控管,過早實驗可能導致策略錯判或資源錯配。

3.內部策略需要常態化調整

該研究發現,有公司會透過定期召開跨部門會議,追蹤AI工具的使用情況與應用場景,這樣的制度能避免部門之間出現「資訊落差」,也有利於持續優化成長策略。

🔹 三、社會風險:AI的副作用,會讓企業背負責任

AI不只改變企業,也改變整個社會。該研究指出生成式AI的社會影響包括:

1.員工焦慮與職位消失

一些員工可能會擔心 AI 搶走自己的工作、削弱專業價值。面對這種「AI 恐慌」,企業需要明確傳達 AI 是輔助而非取代,並提供轉型訓練機會。

2.詐騙與垃圾內容暴增

AI 能自動生成看起來像「真人寫的」詐騙郵件或垃圾廣告,讓使用者難以辨識,增加品牌被誤解、平台被濫用的風險。

3.法律與合規模糊地帶

例如:用 AI 生成的內容出問題誰該負責?這類問題目前多未有明確規範。

4.環境負擔

每次使用像 ChatGPT 這樣的大型模型,其實都會消耗大量電力。比起一次 Google 搜尋,AI 問答所耗能量可能高達10倍,長期來看會對環境造成壓力。

最後,AI 可以幫助新創快速成長 📈,但不代表可以忽視它的副作用 ⚠️。

企業若不處理好隱私、偏誤、法規與員工焦慮等議題,不只會錯失商機 💸,更可能賠上品牌聲譽與社會信任 💔。

AI 不只是技術問題,而是一場關於組織文化、競爭策略與社會責任的全面挑戰。

懂得風險管理的人,才能用好 AI 💪。



5.Rezazadeh, A., Kohns, M., Bohnsack, R., António, N., & Rita, P. (2025). 
Generative AI for growth hacking: How startups use generative AI in their growth strategies. 
(生成式人工智慧協助成長駭客:新創公司如何在成長策略中使用生成式人工智慧)
Journal of Business Research, 192, 115320.

https://www.sciencedirect.com/science/article/pii/S0148296325001432

  • AI 輪盤 (AI Wheel)

「AI 輪盤」是一個應用對照框架,用於識別新創公司在成長階段中,如何將生成式 AI 應用於具體的業務活動中。

將應用分為三大成長導向:

1.產品主導成長 (Product-Led Growth): 專注於加速產品開發。
具體應用,包括  AI 編碼助手(如代碼驗證、快速開發)、技術寫作(自動生成用戶故事、產品文檔)以及利用公司專屬數據進行數據分析。
2.銷售主導成長 (Sales-Led Growth): 旨在驅動營收與客戶轉化。
具體應用,包括: 超個人化推廣(Outreach)、銷售戰鬥卡(Battle cards)、SEO 內容生成以及自動化銷售腳本撰寫。
3.營運效率 (Operational Efficiency): 專注於優化內部流程與日常生產力。
例如:會議助手、內容摘要與翻譯、市場研究自動化,以及處理客戶服務的 ChatBot 2.0。

  • AI 能力框架 (AI Capabilities Framework)
「AI 能力框架」則是一個知識與實施結構模型,指導經理人如何從基礎到進階,建立組織內的 AI 運用能力。
框架包含四個關鍵知識層次:
1.AI 功能知識 (AI Feature Knowledge): 學習如何選擇並使用軟體所提供的 AI 功能。
這是最基礎的階段,重點在於了解工具能做什麼。
2.AI 優化知識 (AI Refining Knowledge): 提升效能。
這涉及提示工程(Prompt Engineering),學習如何精煉輸入內容(與 AI 對話)以獲得更好的結果。
3.AI 組合知識 (AI Combinatory Knowledge): 跨越平台邊界。
引導員工學習如何將不同的軟體和平台組合起來,建立自動化的工作流(例如結合 LangChain 或 Zapier)。
4.反思性知識 (Reflective Knowledge): 這是最高層次的能力。
強調批判性評估 AI 輸出的重要性,以辨識「AI 幻覺」和無意義的公式化內容(Fluff),並檢查事實準確性與法律合規性。


「AI 輪盤」和「AI 能力框架」的相互作用
共同為新創公司提供了完整的導航:
  1. 「AI 輪盤」指出了「在哪裡應用 AI」以驅動增長,而
  2. AI 能力框架」則解釋了「如何建立能力」來有效實施這些應用。
這種結構化的方法能幫助新創公司在資源有限的情況下,透過 C 級主管的支持與「由下而上」的創意生成,獲得競爭優勢。



精選文章

服務業數位轉型,需可實戰的創新方法論

專家傳真 - 服務業數位轉型 需可實戰的創新方法論, 2018 年 05 月 18 日,工商時報 https://www.chinatimes.com/newspapers/20180518000297-260202 服務業如何結合 ICT 科技,進行數位化轉型...