面對具備自主決策能力的 AI 攻擊,傳統防禦已顯不足。本講題聚焦企業如何運用 Fortinet AI 監控技術,在動態維運中實時修復漏洞。我們將分享如何運用多層次 AI 防禦,在攻擊發生的當下建立緩衝與反制機制,化解雲端資產風險,將安全韌性轉化為企業競爭力。

卡巴斯基與 ISG 近期發佈的一份報告《通過強大的混合雲和容器安全緩解雲遷移難題》強調了企業對雲原生技術的日益依賴。報告顯示,78%的企業已採用這些技術,43%的企業計畫在未來兩年內進一步擴大應用規模。然而,許多組織仍然面臨安全挑戰。值得注意的是,60% 的受訪者表示難以通過持續掃描識別漏洞和風險,從而造成潛在的安全盲區。
為了幫助企業應對這些挑戰,卡巴斯基進一步加強了卡巴斯基雲工作負載安全 (Kaspersky CWS) 綜合服務的能力。此次更新引入了增強的取證功能,為系統事件提供了更深入的洞察。這使安全團隊能夠更快地識別風險、漏洞、攻擊來源並監控後續事件。此外,運行時擴展的檔操作監控現在允許公司跟蹤檔創建、修改、打開和保存等操作,從而提高對潛在安全風險的可見性。
另一個關鍵改進是編排器安全問題分析功能,它提供了按集群和編排器分類的安全問題綜合概覽。此增強功能提供了對安全各個方面的見解,包括存取控制、編排器配置、網路、工作負載安全和金鑰管理。為了進一步加強保護,此更新還引入了針對編排器節點的檔威脅防護功能,確保關鍵基礎設施擁有更高的安全級別。
為了檢測單個容器、組和集群中的異常行為,卡巴斯基雲工作負載安全現在支援運行時的自動容器分析。此改進簡化了策略創建並增強了整體安全性。卡巴斯基雲工作負載安全的可擴展性也得到了顯著提高,該解決方案現在支持數千個節點的部署,非常適合大型企業管理複雜的容器化環境。

在金融業嚴格的法遵與資安要求下推動 AI 上雲,我們分四個階段,逐步完成 AI Service 與 AI Platform 的雲端化。
本次分享將從策略到技術實作,完整說明銀行上雲的推動旅程,涵蓋服務驗證、資料上雲、開發者上雲與後續維運精進。
我們也將分享哪些 Day 1 的架構原則與設計堅持在後續維運需求中被證實極具價值,以及哪些決策在重新來過時會做出不同調整。透過實際經驗、組織協作與平台化洞察,提供企業在大規模 AI 與雲端轉型的案例分享。

在企業邁向現代化架構的進程中,核心系統(Legacy Systems)的轉型往往是難度最高、風險最大的瓶頸。面對數十年迭代、缺乏文件且邏輯斷層的舊系統,企業在推動 AI 應用或數位翻新時,常面臨「邏輯失真」與「轉型即斷層」的挑戰。
CodexAI 正引領一場「以規格為核心」的轉型革命。
不同於傳統的人工程式碼梳理,CodexAI 運用先進 AI 技術實現自動化逆向工程,精準從舊系統原始碼中萃取出商業邏輯。透過「規格驅動(Specification-Driven)」模式,將複雜的程式轉換為結構化的數位資產,不僅能消除轉型過程中的黑盒風險,更為後續的低程式碼開發或現代化架構部署,提供了 1:1 的精準導航。

在金融研究與量化交易的高標準要求下,資料一旦出問題,排查成本極高。然而可觀測性的導入往往卡在同一個問題:不熟維運的開發者不知道該加什麼、怎麼加,推動起來往往缺乏著力點。
本場分享將介紹在 Kubernetes 環境中,以 Grafana 全家桶搭配 OpenTelemetry 建立可觀測性基礎;並探索如何透過 AI Coding Agent,協助不熟維運的開發者自動注入可觀測性,讓導入不再依賴少數人推動。同時也會分享讓 AI 直接串接 Traces、Logs、Metrics 進行根因分析的實驗性做法。
適合對可觀測性入門、或正在思考如何在團隊中落地推動的工程師。

Co-Intelligence 共智 這是華頓商學院教授 伊森・莫里克所提出如何在 AI 時代與 AI 共生共存的看法,這本書得過許多獎項內容淺顯易懂,對於任何人士都是不可多得的參考手冊,本 session 將以與AI相觸的四大原則為出發點,一直探討到工程師在全面採用 Harness Engineering 之後該有的開發者體驗為宗旨,說明接下來的開發作業我們將何去何從。

2025 - 2026 年 AI Agentic Coding 時代全面爆發,軟體開發正經歷前所未有的典範轉移。本場演講將分享講者帶領團隊從最初的觀望與不敢嘗試,到全員導入 AI 開發工具的實戰歷程。內容涵蓋:
- 團隊轉型的關鍵挑戰:如何克服成員對 AI 工具的疑慮與抗拒,建立信任並逐步推動採用
- 實際導入策略:從個人試用到團隊標準化流程的落地方法
- 開發效益與轉變:導入前後在程式碼品質、開發速度與團隊協作上的具體變化
- 加速部署迭代:如何運用 AI 工具優化從開發、測試到部署的完整軟體交付流程
無論你是正在評估 AI 工具的技術主管,還是想推動團隊轉型的工程師,這場演講都能提供可落地的實踐經驗與參考框架。

AI 讓「寫 code」變得容易,但實際在開發上,常見現象是一開始很順、越做越亂,LLM 逐步偏離設計,context 越長結果反而越不準。這不是 prompt 不夠強或模型不夠大,而是 LLM 本質上不擅長長時間、持續演進的任務。vibe coding 適合快速探索小範圍任務與短期 context,但長任務會走向失焦(loss of alignment);context window 也不是越大越好,資訊堆疊會造成 attention 稀釋,且 LLM 沒有真正長期記憶。
這場分享現實:AI 讓寫 code 變快,卻不保證長時間任務不失焦;為何 vibe coding 會在 context 拉長後 drift。並以 SpecKit 補上的結構化上下文價值、並了解其代價,以及從 spec-driven 走向 agent-driven 的實務經驗。
1. 從 Vibe 出發:為何 LLM 在長時間任務中逐漸失焦
2. LLM 原理:Context 不斷堆疊,為何反而降低準確性
3. SpecKit 的價值:從 Prompt Chaos 到 Structured Spec 作為 Source of Truth
4. 現實限制:Spec Tax、Drift,以及無法解決的痛點
5. SDD(Spec-driven Development)適用場景:PoC、Greenfield 等
6. 從 Spec-driven 到 Agent-driven:Speckit 作為過渡形態
你將能清楚辨識 vibe coding 的有效範圍與失效訊號、理解 LLM 在長上下文下準確率下降的原因、評估 SpecKit 在實務上的收益與成本,並帶走一套可用於 PoC、Greenfield 與複雜系統規劃的導入與決策視角。

雲端轉型不只是技術升級,更關乎成本控管與營運效率,GCP Cloud Run 提供靈活的無伺服器選擇,避免傳統伺服器長時間閒置所造成的浪費。
本場演講將帶您認識 Cloud Run,並與 Compute Engine 進行優勢比較,解析不同運算情境下的最佳架構選擇,協助降低成本並提升資源利用率。內容還涵蓋其運行機制、請求處理流程、安全設定與計費模式,並分享快速部署與多服務整合的實務架構,幫助您掌握高效運作的關鍵。

生成式 AI 正快速重塑金融服務的面貌,顯著提升作業效率與員工生產力,也能把專業金融知識以更親近、即時的方式傳遞給顧客,創造更高質感的服務體驗。銀行該如何善用生成式AI為顧客提供全新的房貸申辦與諮詢體驗,不僅是技術導入的問題,更牽涉到從顧客旅程、系統流程到內外部資料整合的全面重構。
面對生成式 AI 固有的回應不確定性,銀行在追求系統穩定與資訊正確性的前提下,如何建立嚴謹的風險控管與品質保證機制並規劃異常關閉與事件管理流程,才能在提供創新服務的同時,有效降低營運風險。

1.問題定義:AI導入的真正風險
Prompt / Output 資料外洩
無法追蹤(audit gap)
IP歸屬不明
2.雲端生成式AI架構(Cloud AI Stack)
Model / RAG / Agent
Data Layer(企業資料)
Governance Layer(Logging / Access Control)
3.敏感資料治理(Data Security Layer)
資料分類(Public / Confidential / Restricted)
去識別化(Masking / Tokenization / Anonymization)
Prompt / Output 控管(Filtering / Policy)
4.ISO 27001 對應(資訊安全)
Access Control / Logging / Risk Management
AI系統納入 ISMS 範圍
Gap:無法處理 AI輸出與IP問題
5.TIPS 對應(智慧財產治理)
AI產出權利歸屬
Trade Secret / Patent 分類
使用紀錄與文件化(可稽核)
6.法規要求整合(Compliance Layer)
個資:GDPR / 台灣個資法(去識別化、目的限制)
資安:EU CRA(產品安全責任)
AI監管:AI Act(高風險系統)
7.雲端落地架構(Hybrid Implementation)
敏感資料:Private Cloud / NAS
模型:Edge AI
中間層:API Gateway + Security Control
8.導入路徑: 資料分類 + 去識別化 + ISO對齊+AI工具
9.結論
AI = 新的資安與法遵邊界
沒有治理,就無法商用

主要內容:
主要以 90 分鐘理論 + 實作並行的形式,深入剖析如何透過 ADK 框架設計 AI Agent 雙向串流(Bidi-Streaming技術整合至現代 DevOps 工作流程。涵蓋傳統 Request-Response 模式的局限、Gemini Live API 與 ADK 框架的核心機制,以及如何以 FastAPI + WebSocket 打造生產級串流服務。
聽眾預期收穫:
- 理解 Bidi-Streaming 與傳統 API 的本質差異
- 掌握 AI Agent 在故障診斷、即時日誌分析、自動化運維的應用場景
- 實際動手完成一個可容器化部署的串流 AI Agent
- 學會透過 Cloud Build + Cloud Run 完成端對端 CI/CD 流程,並驗證生產環境功能

隨著 Kubernetes 環境邁向超大規模與多雲複雜化,傳統的 SRE 自動化腳本與預定義規則已難以應對「未知之未知」的系統風險。2026 年的維運典範正在發生移轉——我們不再僅是追求「自動化(Automation)」,而是致力於實現「自主化(Autonomy)」。
議程將深入探討 A2A(Agent-to-Agent)協議,剖析它如何打破單一 Agent 的能力孤島,讓不同專長的 Agent 像人類專家團隊一樣相互協商、動態委派任務並凝聚共識。並介紹專為雲端原生環境設計的 Agentic AI 框架 kagent,展示多代理協作如何將分散的專業能力轉化為可規模化的集體智慧。
跟著這條清晰的演進路徑——從傳統 DevOps 到 Agentic SRE,從個人經驗的積累到代理集體智慧的規模化——重新定義下一代 Kubernetes 維運的可能邊界。

借鏡「國家級機敏單位」與台日 20,000+ 企業實務,揭秘二十年資安思維的演化邏輯
AI 已讓自動化攻擊進入「零邊際成本」時代,傳統仰賴人力與規則堆疊的防禦體系,正面臨嚴峻的結構性耗損。Openfind 累積 近 30 年的系統開發與維運經驗 ,在長期守護「國家級決策機關與高資安敏感單位」的實務經驗中發現,真正的防禦槓桿不在於工具堆疊,而在於資安思維能否隨威脅環境動態演化。本議程將分享如何透過AI科技,實現主動式的資安防禦。我們將解析如何運用「系統思考」與「非對稱作戰」邏輯,透過AI,將 IT 管理從疲於奔命的救火者,轉型為能佈局「自演化防禦系統」的架構專家,協助企業在 AI 浪潮下重構資安思維,發揮投資的最大槓桿效益 。

當企業從「試用 AI」走向「全面部署 AI」,真正浮出水面的,往往不是成果,而是陣痛。這場分享將帶您看見一間企業如何從 AI 瑕疵檢測、RAG、知識圖譜、txt2sql,到串接 ERP、MES、IoT 與 AMR 的 Agentic AI 歷程;也誠實揭露那些最常被省略的現場真相:技術卡關、導入停損、資料與權限治理、以及人員習慣改變的漫長拉扯。若您正在規劃企業 AI 轉型,這將是一場少談口號、多談代價與方法的實戰復盤。

講者將在此議程分享 Gthulhu 從 PoC 到 MVP 的開發經驗談,再以 Gthulhu 的實際應用案例來說明該專案如何監管使用者指定的雲原生負載,以此來擴展負載或是最佳化負載的 CPU 資源分配。

在減碳法規及氣候議題全球化的趨勢下,碳盤查不再是企業的「選擇題」,許多金融業的碳盤查活動數據零散、依賴人工輸入導致的低效率與高錯誤率中。
高效的碳管理應朝向活動數據收集「自動化」與核算配置「智能化」發展。透過數位工具取代傳統作業,大幅降低人為誤差,將碳管理轉變為策略工具。
分享雲端賦能綠色金融科技轉型,國泰碳管理平台以雲端原生技術,建構集團的智能碳管理工具應用,將技術轉化為企業的減碳競爭力。


在 AI Agent 時代,企業雲端策略不能只停留在基礎設施上雲,而應進一步思考如何打造能支撐 Agent 真正落地的數位底座。從 Cloud First 走向 Agent First,核心不只是算力與資源彈性,更包括資料治理、API 標準化、身分權限控管、流程自動化、可觀測性與安全合規。唯有先建立穩定、可擴充、可治理的雲端平台,AI Agent 才能安全接入企業系統、跨流程協作並持續創造價值。換言之,雲端不再只是 IT infrastructure,而是驅動 AI 創新、營運效率與企業成長的關鍵引擎。

在企業導入 AI 的關鍵,不再是「全雲或全地端」的二選一,而是混合式架構的最佳平衡。本場次會用 Microsoft Foundry 與 Foundry Local作為案例,企業能兼顧資料主權、成本控管與開發效率,加速 AI 應用與代理真正落地,讓智慧運行在最適合的位置。

基礎設施即程式碼 (IaC) 是雲端基礎架構管理中不可或缺的一部分,本議程將深入解析 Terraform 工作流程中,如何設計資源的相依性控制以及生命週期管理,並透過金融業的實際案例展示如何在系統變更時實現服務不中斷。
另外,針對IaC在團隊協作的痛點,我們將藉由服務上線遇到的挑戰來分享 GitOps 實務流程,說明如何透過分支策略來避免不同環境間程式碼脫鉤的問題,並藉由審查機制(PaC , Code Review)落實團隊紀律。透過本議程,與會者將能掌握減少管理成本與避開 IaC 開發地雷的技巧,進而打造兼具敏捷交付與穩定的維運流程。

FinOps 需要冷靜地觀察已經發生的數字,但並不僅止於此,更需要藉由數字讓雲端夥伴們更有信心地向前行。
本議程以風險管理的思維實踐 FinOps,分享更多策略性的觀點;以實際 FinOps 的範例,揭露底層的運算邏輯。
不論是決策管理者、雲端架構師、雲端財務分析師,都期待能擴展 FinOps 的視野。

台灣旅宿業的數據重構與實務應用
【簡介】
當 AI 從技術預測走向實質應用,台灣旅宿業正處於產業轉型的關鍵奇點。本次我們將跳脫概念性的論述,用業界經驗聚焦於 AI 如何在實務層面賦能旅宿產業,從數據推演、行銷精準化到營運流程的自動化,重新定義產業的獲利模型。我們將透過第一線的實務經驗與具體案例,深度剖析 AI 如何在客戶服務的邊界位移中,拆解並重組傳統的營運邏輯,為與會者呈現台灣旅宿業在數位轉型下的現況與困境。
【核心議題】
數據賦能: 探討 AI 演算法如何重塑台灣旅宿業的數據決策體系。
服務位移: 剖析 AI 在客戶端與營運端所帶來的自動化轉型與體驗優化。
現況洞察: 揭露台灣旅宿產業對 AI 導入的真實態度、導入瓶頸與未來佈局。

您是否和我之前一樣,認為「零信任」只是一個概念,雖聽了研討會或廠商相關標榜零信任產品介紹後,還是茫茫然,不知如何著手導入,更遑論向老闆提零信任專案提案及規劃佈署「價值」所在。
在企業雲地混合的資訊架構下,如何有一零信任架構評估與落地的「方法論」
,如:參考的標竿產業、評估依據、成熟度評估可如何辦理到ZTA解決方案的策略規劃與藍圖,最終到提昇組織的資安治理成熟度與韌性,讓企業主高層看到零信任投資與IT人員的價值,是講者此次分享的初衷。

把企業地端的大型資料庫搬上雲,最怕的不是搬不走,而是搬遷時停機太久、搬完後帳單爆表。這場演講除了優雅的遷移策略,更直接拆解我們如何把大型 Microsoft SQL Server 集群,透過 Link feature 與 DAGs 實現在近乎零停機的情況下,轉移至 Azure 環境,分享如何規劃、建置 Azure SQL Managed Instance 架構。此外,也將探討遷移後的「真實戰場」:FinOps。很多人以為開了自動化調教(Auto-tuning)就萬事大吉,但我們會分享在什麼坑位下你絕對不能開、什麼時候該手動介入 scaling,透過效能提升、安全隔離實現雲端自治。這是一場關於從傳統 DBA 轉型數據架構師的經驗分享,讓你的雲端數據核心不再需要人工死守,也能跑得穩又省錢。
議程大綱:
-大型資料庫雲端遷移的架構決策
-實戰 Link feature:實現地雲近乎零停機遷移
-遷移後的 FinOps 挑戰:效能與成本的權衡
-自動化調教的邊界:限制、風險與 Scaling 觸發機制
-案例分享:從地端 DBA 到雲端數據架構師的思維轉變
參與者預期收穫:
-掌握 Link feature 與 DAGs 在大型架構中的實作細節
-設計兼顧安全隔離與高可用性的 Azure 數據架構
-學會辨識自動化調教的「安全邊界」,避免過度支出或效能瓶頸
-獲取傳統維運轉型數據架構師的實戰經驗

在玉山銀行智能金融處全面上雲的背景下,本議程分享如何在嚴格金融資安合規下,打造同時支撐 AI Coding 與敏捷開發的雲端開發入口。內容聚焦三大主軸:
1)資安左移:縱深防禦架構確保出入平安,套件管理防範供應鏈攻擊。
2)可觀測性:深入解析原廠黑盒子,從日誌與指標中挖掘關鍵數據,優化使用者體驗。
3)Ops-as-Code:利用IaC部署留存Day2軌跡,整合Packer簡化包檔流程,以打造系統韌性與提升災難復原能力。
同時,講者將分享虛擬桌面平台從導入到維運的實戰踩坑案例,說明如何在資安合規、使用者體驗與 SRE 穩定性之間取得平衡,為評估 VDI 或推動開發環境上雲的團隊提供可落地的架構與實務參考。

隨著大型語言模型(LLM)逐漸進入企業應用場景,如何有效建構訓練資料、降低模型微調成本,並建立可持續迭代的開發流程,成為導入過程中的關鍵挑戰。
本議程將以 Claude Code 為核心工具,分享如何打造一套「可落地的 LLM 自動訓練與資料生成管線」。內容涵蓋從資料來源整理、synthetic data 生成、資料驗證與清洗,到最終訓練資料集建構與模型微調(fine-tuning)的完整流程設計。
講者將結合實務專案經驗,說明如何在繁體中文場景(如金融、政府與客服應用)中,利用自動化 pipeline 提升資料品質與開發效率,同時降低人工標註成本與模型訓練門檻。此外,也將探討在不同應用情境下,fine-tuning、RAG 與混合架構的取捨策略。
透過本議程,與會者將能掌握新一代「人機協作」的 AI 開發模式,理解如何從零開始設計一套可擴展的 LLM 訓練流程,並將其應用於實際業務場景中。

在 AI 與雲端全面落地的時代,真正的資安挑戰已從「資料儲存與傳輸」延伸到「資料使用中」。當敏感資料進入記憶體處理時,如何確保即使系統管理員或雲端平台也無法存取?這正是機密運算(Confidential Computing)要解決的關鍵問題。
本次演講將從資料三態的安全風險出發,深入解析機密運算的核心概念與可信任執行環境(TEE)運作原理,並以 AWS Nitro Enclaves 為實務主軸,說明如何建立硬體隔離的安全運算環境,保護 AI 推論與敏感資料處理。
同時也將快速比較 GCP 與 Azure 的機密運算服務差異,協助企業理解多雲策略下的安全設計思維,掌握 AI 與資安融合的下一個關鍵技術。

Agent Framework是微軟的次世代LLM運作框架;而Microsoft Orleans以較輕量的心智模型概念(Virtual Actor model),開發互動複雜且高併發的分散式應用,本議程將介紹如何入門這兩套工具並建構.NET版 Agentic AI後端:
1.使用Agent Framework打造單機版代理式AI。
2.Orleans與Virtual Actor Model架構概念解釋。
3.Orleans提供的API概念與服務介紹。
4.整合Agent Framework與Orleans建構簡類似OpenClaw的Agentic AI應用

本議程聚焦於金融企業如何透過雲端原生架構,建構可大規模擴展的「Agentic AI 中樞平台」。我們將分享如何將單點 AI 工具轉化為平台化服務,重點解析如何利用 MCP (Model Context Protocol) 建立統一標準,實現與企業異質資料來源及 M365 生態系的深度整合。
演講將從平台工程(Platform Engineering)視角出發,揭密支撐多代理人協作的基礎設施佈局,包含如何在金融雲環境中佈署低延遲 Realtime-GPT 推論服務,並建立符合資安合規的雲端治理流程。聽眾將掌握如何克服跨部門系統對接的障礙,建立一套能持續交付 AI 能力的雲端基礎建設藍圖。
