查看原文
其他

24GB显卡轻松上手InternLM-20B大模型,手把手教程来啦!

InternLM 2024-04-23

书生·浦语InternLM-20B于9月20日正式发布,目前镜像已在 CodeWithGPU.com 首发,链接:

https://www.codewithgpu.com/i/InternLM/lmdeploy/internlm-chat-20b-lmdeploy


模型链接:

https://www.codewithgpu.com/m/file/turbomind-internlm-chat-20b-w4

https://www.codewithgpu.com/m/file/internlm-chat-20b

https://www.codewithgpu.com/m/file/internlm-20b

无论在本地电脑还是在云端都可以轻松使用该镜像,现在就让我们跟着教程一起体验InternLM-20B的魅力吧~


本地电脑运行


如果您本地有GPU(显存24GB及以上),可以在本地CG客户端直接使用,即可获得和AutoDL云端一致的使用体验。


1、安装CG客户端:

https://www.codewithgpu.com/docs/install/


2、CG客户端启动后点击【创建容器】,搜索 InternLM,选择 internlm-chat-20b-lmdeploy。


3、请稍等创建成功,然后点击【JupyterLab】


4、在JupyterLab 中新建一个终端。

终端中执行:

bash /root/get_started.sh

首次执行需要一些时间,请耐心等待,直到出现:

server is gonna mount on: http://0.0.0.0:6006Running on local URL: http://0.0.0.0:6006


5、点击容器列表里的【Web服务】


6、跳转打开的就是对话页面,可以愉快的使用啦~


AutoDL 云端运行


1、访问CG镜像地址:https://www.codewithgpu.com/i/InternLM/lmdeploy/internlm-chat-20b-lmdeploy


2、点击右侧【AutoDL创建实例】


3、跳转到创建实例页面,选择显存24GB及以上的 GPU ,然后点击右下角【立即创建】


4、耐心等待创建完成,当运行状态为运行中时,点击【JupyterLab】


5、在JupyterLab 中新建一个终端。


6、终端中执行:

bash /root/get_started.sh

首次执行需要一些时间,请耐心等待,直到出现:

server is gonna mount on: http://0.0.0.0:6006Running on local URL: http://0.0.0.0:6006


7、点击容器实例列表里的【自定义服务】


8、跳转打开的就是对话页面,可以愉快的使用啦~


注意:如果打开自定义服务提示使用ssh隧道,请参考这个视频操作:https://www.bilibili.com/video/BV1Pk4y1w7Pk



如果您在使用中有任何问题,或希望与更多开发者交流,欢迎扫码加入社区开发者交流群。


继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存