当谈到代码自动补全和辅助编程工具时,GitHub Copilot是一个备受推崇的选择。然而,有时我们可能希望在本地环境中构建一个类似的解决方案,以便更好地控制数据和隐私,更重要的是Llama3是免费,而Github Copilot是收费的。本文将分享如何基于Llama3和CodeGPT这两个强大的开源项目,搭建自己的本地Copilot。
<!--more-->
部署Llama3模型
在超越GPT-3.5!Llama3个人电脑本地部署教程中我已经分享过如何使用Ollama在本地部署Llama3模型,本文不再赘述。
安装CodeGPT扩展
打开Visual Studio Code,转到扩展标签页。搜索“CodeGPT”并安装这个扩展。CodeGPT是一个可以使用多种大语言模型辅助代码编程的插件。
注意:要认证发布者是CodeGPT
,不要安装CSDN发布的!
设置Llama3为CodeGPT默认模型
安装完CodeGPT之后,VSCode左侧会出现CodeGPT的产品图标,按照下图设置Llama3为CodeGPT使用的模型。
测试
下面是笔者的测试截图,可以看到模型工作正常,提供了一个Echo Server例子:
在日常开发中,我们可以在任意源码处点击右键让CodeGPT对代码进行解释或者优化。
与收费的GitHub Copilot不同,Llama3提供了免费的解决方案,并且我们可以更好地控制数据和隐私。通过安装Llama3模型和CodeGPT扩展,我们能够在本地环境中享受到强大的代码辅助功能。无论是解释代码还是进行优化,CodeGPT都能为我们提供准确而实用的建议。
希望本文对你构建自己的本地Copilot有所帮助,让你在编程过程中更高效、更愉快!
在搭建本地Copilot的过程中有任何疑问都可以关注公众号加群进行交流。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。