IBM承諾開放感知運算/機器學習技術
IBM現在表示,將繼續為開放源碼社群提供感知分析以及機器學習技術,以進一步揭露採用軟體定義基礎建設(software-defined infrastructure,SDI)所收集的資料內涵。
IBM最近發表了Spectrum Computing工具套件,而將感知運算(cognitive computing)資源在今年內提供給開放源碼社群,會是該公司的終極目標。
去年IBM承諾投資10億美元,重新定義名為Spectrum Storage的新一代軟體定義儲存(software-defined-storage)環境,並將之開放給非IBM儲存設備,已經獲得Netfilix以及全球10萬台其他公司的伺服器採用。
IBM現在表示,將繼續為開放源碼社群提供感知分析以及機器學習技術,以進一步揭露採用軟體定義基礎建設(software-defined infrastructure,SDI)所收集的資料內涵;市場研究機構IDC估計,SDI市場到2019年可達到510億美元的規模,而IBM希望能藉勢進一步推廣其Apache Spark、Hadoop以及其他開放源碼工具等Spectrum Computing資源。
「各種類型的組織現在都意識到,資料是具備高度價值的企業資產,而從資料中充分提取這些價值,是關鍵的市場競爭優勢;不過湧入的資料量實在是太龐大,使得企業很難利用其中的內涵。」IBM軟體定義儲存業務副總裁Bernard Spang接受EE Times編輯訪問時表示:「IBM的Spectrum Computing能協助客戶採用並管理Apache Spark分析工具,並改善可預測的應用程式效能,以取得更快速的結果。」
IBM指出,其Spectrum Computing套件中的負載平衡工具Load Sharing Facility (LSF),比起前一代系統能將吞吐量提升五倍,擴展性提升三倍;同樣的,該公司聲稱其Spectrum Conductor──經歷了兩年發展──能將以雲端為基礎的開放源碼Apache Spark分析工具的速度加快60%。IBM表示,新的Spectrum Computing SDI能提供如此的速度提升,主要原因就是採用了感知運算管理技術。
不過IBM並未透露將開放的感知分析以及機器學習元素有哪些,僅表示會是Spectrum Conductor的關鍵元件,並將有助於科學家以及開發者採用Apache Spark巨量資料分析工具。
編譯:Judith Cheng
(參考原文: IBM to Donate Cognitive Analytics/Learning,by R. Colin Johnson)
訂閱EETimes Taiwan電子報
加入我們官方帳號LINE@,最新消息一手掌握!