Apple Releases Open Source MLX f<em></em>ramework for Efficient Machine Learning on Apple Silicon

MLX可以帮助开发者优化苹果电脑上机器学习模型的性能

突出了
  • 苹果是MLX f框架被设计在苹果硅硬件上运行
  • MLX拥有其他f不支持的统一内存模型rameworks
  • 新的MLX f框架是开源的,可以通过GitHub访问
广告

苹果公司最近发布了MLX(或ML Explore)——该公司为苹果硅计算机开发的机器学习(ML)框架。该公司最新的框架专门设计用于简化由苹果M1、M2和M3系列芯片驱动的计算机上训练和运行ML模型的过程。该公司表示,MLX具有统一的内存模型。苹果还展示了该框架的使用,该框架是开源的,允许机器学习爱好者在他们的笔记本电脑或电脑上运行该框架。

根据苹果在代码托管平台GitHub上分享的细节,MLX框架有一个c++ API和一个基于NumPy的Python API, NumPy是用于科学计算的Python库。苹果表示,用户还可以利用更高级的软件包,在自己的电脑上构建和运行更复杂的模型。

MLX简化了在计算机上训练和运行机器学习模型的过程——开发人员以前被迫依赖翻译器来转换和优化他们的模型(使用CoreML)。现在,MLX已经取代了这一功能。MLX允许使用苹果硅计算机的用户直接在自己的设备上训练和运行他们的模型。

generated mlx mlx apple

 

苹果表示,MLX的设计遵循了目前使用的其他流行框架,包括ArrayFire、Jax、NumPy和PyTorch。该公司吹捧其框架的统一内存模型——MLX数组驻留在共享内存中,而对它们的操作可以在任何类型的设备上执行(目前,苹果支持CPU和GPU),而无需创建数据副本。

该公司还分享了MLX的实际应用示例,在苹果硅硬件上使用Stable Diffusion执行图像生成等任务。当生成一批图像时,苹果公司表示,对于批量大小为6,8,12和16的图像,MLX比PyTorch更快,吞吐量比后者高出40%。

测试是在一台由M2 Ultra芯片驱动的Mac电脑上进行的,这是该公司迄今为止最快的处理器——MLX能够在90秒内生成16张图像,而PyTorch需要大约120秒才能完成同样的任务。

该视频是Llama v1 7B模型在MLX中实现,并在M2 Ultra上运行。

更多信息请访问:https://t.co/gXIjEZiJws

*训练变压器LM或微调与LoRA
*使用Mistral生成文本
*图像生成稳定扩散
*语音识别与Whisper pic.twitter.com/twMF6NIMdV

——Awni Hannun (@awnihannun), 2024年12月5日

MLX的其他实际示例包括使用meta的开源LLaMA语言模型以及Mistral大型语言模型生成文本。人工智能和机器学习的研究人员还可以使用OpenAI的开源Whisper工具在他们的计算机上使用MLX运行语音识别模型。

苹果公司发布的MLX框架可以帮助机器学习研究和开发更容易在公司的硬件上,最终允许开发人员带来更好的工具,可用于应用程序和服务,提供设备上的机器学习功能在用户的计算机上高效运行。