為持續深化 AI 解決方案的策略布局,Microchip Technology今日推出全新「模型上下文協定」(Model Context Protocol, MCP)伺服器。這款 AI 介面可直接與相容的 AI 工具與大型語言模型(LLMs)連接,提供必要的上下文資訊,協助這些系統更準確地回應提問。透過簡單的對話式查詢,使用者即可存取經過驗證且最新的 Microchip 公開資訊,包括產品規格、產品資料表、庫存狀態、價格與交期等內容。
MCP 伺服器基於 MCP 可串流 HTTP 標準架構,回傳針對 AI 應用最佳化的 JSON 編碼內容,支援各類 AI 用戶端,包括 Copilot、AI 聊天機器人、整合 LLM 的IDE開發環境與企業級 AI 代理系統等。此平台可廣泛應用於多種場景,並將 Microchip 的產品資料無縫整合至開發流程與智慧助理中。
「MCP 伺服器的推出,是 Microchip 積極擁抱 AI 並致力於提供客戶便利工具的又一實例,」Microchip 營運長 Rich Simoncic 表示。「我們致力於運用 AI 提升設計效率與創新速度。藉由讓開發人員能即時存取其既有 AI 平台中的經過驗證的產品資訊,我們持續致力於排除開發障礙,讓使用 Microchip 解決方案變得更輕鬆。」
透過整合可靠的技術與採購資訊,MCP 伺服器可強化設計生產力、簡化自動化流程,並協助工程師更快速、精準地做出設計決策。
此項新發布進一步展現 Microchip 持續推動企業數位轉型與 AI 賦能的承諾。Microchip MCP 伺服器已全面開放免費使用,歡迎造訪下列網址取得伺服器端點與開始使用:http://www.microchip.com/en-us/resources/model-context-protocol-server
- 本文為作者投稿,僅代表作者個人之觀點與意見,與本平台立場無關。涉及之著作權、言論及法律相關責任,均由作者自行承擔。
- 我已確實了解,台灣新聞聯播網擁有審核及決定是否刊登的權利。如新聞稿有違反法規或被檢舉的疑慮,台灣新聞聯播網有權將其下架刪除,且不另行通知及解釋。















-350x250.jpg)
-120x86.jpg)

-120x86.jpg)






