Mozilla基金会计划推出离线的本地AI 让每个人都可以私密使用AI

2023年12月19日 16:08 次阅读 稿源:蓝点网 条评论

目前 AI 技术的快速发展已经让很多用户日常工作离不开 AI,不过现在的 AI 多数都是基于云端运行的,也就是用户提交的数据有潜在的泄露风险。这个时候关注隐私的谋智基金会站出来了,谋智基金会宣布推出一个名为 Llamafile 的新开源计划,该开源计划目标是帮助人们在自己的硬件上运行大型语言模型,不需要专用的 GPU、CPU 或者 NPU(但有 GPU 的话可以更好的运行)。

Llamafile 的工作原理是将人工智能聊天机器人的所有复杂性压缩为一个文件,然后该文件可以在 Windows、Mac、Linux、OpenBSD、FreeBSD、NetBSD 上运行,并且几乎不需要安装或者配置,也就是即开即用。

llamafile-640x640.png

这种 LLM 是完全在本地运行的,不需要以来第三方商业公司提供的云端算力,数据也都是保存在本地的,不会离开用户的设备,甚至如果用户愿意的话,可以将自己的日常对话后的机器人模型复制到其他机器上继续使用,这样不用重新优化提示词。

目前谋智基金会并不是唯一一家要打造本地 AI 的公司,谷歌最近向 Pixel 8 Pro 提供的 Gemini 变种版本 AiCore 实际上就是一种本地 AI,利用本地设备的算力来执行某些操作,不过目前 AiCore 的公开信息还比较少。

谋智基金会相信开源是解决各类隐私问题最有力的解决方案之一,可以通过开源解决隐私、访问、控制的问题,也就是我们的对话被谁听到?我们的数据会被如何处理?谁能决定 AI 回答或不回答某些问题。

至于 Llamafile 项目,目前谋智基金会已经注意到一些比较有潜力的项目,第一个是 Llama.cpp 项目,这个开源项目让普通的消费级设备也可以运行 LLM,而且速度并不算慢;第二个是 Cosmopolitan 项目,该项目可以一次编译程序在各种操作系统和硬件上运行。

当然这个项目没这么快搞定,谋智基金会希望开发者或者对 LLM 感兴趣的用户一起参与:https://github.com/Mozilla-Ocho/llamafile

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。

对文章打分

Mozilla基金会计划推出离线的本地AI 让每个人都可以私密使用AI

1 (25%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      招聘

      created by ceallan