Appleの機械学習チームがAppleシリコンで機械学習モデルをトレーニング・デプロイするためのフレームワーク「MLX」をGitHubで公開
GoogleやMeta、Microsoftなどの大手テクノロジー企業がAI開発を積極的に行っている一方、AppleはAIについて保守的であり、AI開発競争に出遅れているという見方もされています。そんなAppleが2023年12月、自社製プロセッサのAppleシリコン用の機械学習フレームワーク「MLX」をソフトウェア開発プラットフォームのGitHubで公開しました。
https://github.com/ml-explore/mlx
Apple launches MLX machine-learning framework for Apple Silicon | Computerworld
https://www.computerworld.com/article/3711408/apple-launches-mlx-machine-learning-framework-for-apple-silicon.html
Apple drops new MLX machine learning framework for Apple silicon Macs - 9to5Mac
https://9to5mac.com/2023/12/06/mlx-machine-learning-apple-silicon-mac/
Apple joins AI fray with release of model framework - The Verge
https://www.theverge.com/2023/12/6/23990678/apple-foundation-models-generative-ai-mlx
多くの人々は「AppleはAIに対して消極的だ」と考えていましたが、2023年7月にはAppleが社内業務において独自のチャットAI「Apple GPT」を活用していることが報じられたほか、11月にはティム・クックCEOが「Appleは生成AIの研究を進めています。それがどういったものかを詳細に説明することはできませんが、私たちがこの分野に投資していることは間違いありません」と発言しました。
Appleのティム・クックCEOが改めて「生成AIの開発に責任をもって取り組んでいる」と発言 - GIGAZINE
そして12月、Appleは突如として機械学習フレームワークのXLMを発表し、ソースコードをGitHubで公開しました。Appleの機械学習研究者であるAwni Hannun氏はX(旧Twitter)へのポストで、「ちょうどホリデーシーズンに間に合うように、Appleの機械学習研究チームから新しいソフトウェアをリリースします。MLXは、Appleシリコン(つまりノートPC)向けに特別に設計された効率的な機械学習フレームワークです」と述べています。
Just in time for the holidays, we are releasing some new software today from Apple machine learning research.
MLX is an efficient machine learning framework specifically designed for Apple silicon (i.e. your laptop!)
Code: https://t.co/Kbis7IrP80
Docs: https://t.co/CUQb80HGut— Awni Hannun (@awnihannun) December 5, 2023
MLXに関するドキュメントによると、MLXはAppleシリコン上での効率的かつ柔軟な機械学習のために設計されたNumPyライクなフレームワークであり、Python APIはいくつかの例外を除いてNumPyに厳密に従っているとのこと。
Appleは、「MLXは機械学習研究者が、機械学習研究者のために設計したものです。このフレームワークはユーザーフレンドリーでありながら、モデルのトレーニングとデプロイを効率的に行うことを目的としています。フレームワーク自体の設計も概念的に単純です。私たちは、研究者がMLXを簡単に拡張および改善できるようにし、新しいアイデアを迅速に探求することを目指しています」と述べています。
MLXの設計にはPyTorch、Jax、ArrayFireなどのフレームワークが影響を与えていますが、これらとMLXが大きく違う点はMLXがAppleシリコンの「ユニファイドメモリ向けのモデル」であるという点です。MLXのアレイは共有メモリに存在するため、操作時にいちいちデータをコピーすることなく、サポートしている任意のデバイス(記事作成時点ではCPUとGPU)で実行可能となっています。
また、Hannun氏はMLXを使用することで、Llamaの実行・Transformer言語モデルのトレーニングやLoRAによる微調整・Mistralによるテキスト生成・Stable Diffusionを用いた画像生成・Whisperによる音声認識などが可能だと説明しました。
The video is a Llama v1 7B model implemented in MLX and running on an M2 Ultra.
More here: https://t.co/gXIjEZiJws
* Train a Transformer LM or fine-tune with LoRA
* Text generation with Mistral
* Image generation with Stable Diffusion
* Speech recognition with Whisper pic.twitter.com/twMF6NIMdV— Awni Hannun (@awnihannun) December 5, 2023