24GB显卡轻松上手InternLM-20B大模型,手把手教程来啦!
书生·浦语InternLM-20B于9月20日正式发布,目前镜像已在 CodeWithGPU.com 首发,链接:
https://www.codewithgpu.com/i/InternLM/lmdeploy/internlm-chat-20b-lmdeploy
模型链接:
https://www.codewithgpu.com/m/file/turbomind-internlm-chat-20b-w4
https://www.codewithgpu.com/m/file/internlm-chat-20b
无论在本地电脑还是在云端都可以轻松使用该镜像,现在就让我们跟着教程一起体验InternLM-20B的魅力吧~
本地电脑运行
如果您本地有GPU(显存24GB及以上),可以在本地CG客户端直接使用,即可获得和AutoDL云端一致的使用体验。
1、安装CG客户端:
https://www.codewithgpu.com/docs/install/
2、CG客户端启动后点击【创建容器】,搜索 InternLM,选择 internlm-chat-20b-lmdeploy。
3、请稍等创建成功,然后点击【JupyterLab】
4、在JupyterLab 中新建一个终端。
终端中执行:
bash /root/get_started.sh
首次执行需要一些时间,请耐心等待,直到出现:
server is gonna mount on: http://0.0.0.0:6006
Running on local URL: http://0.0.0.0:6006
5、点击容器列表里的【Web服务】
6、跳转打开的就是对话页面,可以愉快的使用啦~
AutoDL 云端运行
1、访问CG镜像地址:https://www.codewithgpu.com/i/InternLM/lmdeploy/internlm-chat-20b-lmdeploy
2、点击右侧【AutoDL创建实例】
3、跳转到创建实例页面,选择显存24GB及以上的 GPU ,然后点击右下角【立即创建】
4、耐心等待创建完成,当运行状态为运行中时,点击【JupyterLab】
5、在JupyterLab 中新建一个终端。
6、终端中执行:
bash /root/get_started.sh
首次执行需要一些时间,请耐心等待,直到出现:
server is gonna mount on: http://0.0.0.0:6006
Running on local URL: http://0.0.0.0:6006
7、点击容器实例列表里的【自定义服务】
8、跳转打开的就是对话页面,可以愉快的使用啦~
注意:如果打开自定义服务提示使用ssh隧道,请参考这个视频操作:https://www.bilibili.com/video/BV1Pk4y1w7Pk
如果您在使用中有任何问题,或希望与更多开发者交流,欢迎扫码加入社区开发者交流群。