ChatGPT 会是下一代打工人吗?
开通 ChatGPT Plus 半年多时间了,使用过程中,感触良多。这篇文章想具体谈谈我的一些使用经验,以及对它的一些思考,其实早在半年前就写过一篇 AI 浪潮下的一些浅思。
角色助手
让 AI 扮演需要解决问题的角色,可以使其更加聪明的完成任务。
代码助手
独立开发者福音:GPT-4 ➕ 一个全栈开发 🟰 一个小型开发团队
一个正常的开发流程大致是这样的:提出需求 -> 需求评估 -> 技术方案评估 -> 分配开发者 -> 代码实现
。从这个流程可以看出,写代码是最后一个环节,它的占比可能都不到整个开发流程的 20%(既重要又不那么重要)。如果前置工作没有做好,南辕北辙,就会开发出了一个不符合市场需求的东西。如果无法用代码实现,所有的需求都只是一纸空谈。关于这部分,可以看看我之前写的两篇文章 流量密码:ChatGPT 开源的一些思考 和 开源揭秘:35k+ Stars ChatGPT 桌面应用。
# 开发流程 #
+----------+ +----------+ +------------+ +-----------+ +---------+
| 提出需求 | ----> | 需求评估 | ----> | 技术方案评估 | ----> | 分配开发者 | ----> | 代码实现 |
+----------+ +----------+ +------------+ +-----------+ +---------+
|<-- 公司码农(两耳不闻窗外事)--->|
|<------------------- 少部分码农 (有责任心,想学更多技能)----------------->|
|<------------------------- 独立开发者(还会涉及到需求收集,产品推广)-------------------------->|
为何说 GPT 是独立开发者的福音?在我看来,独立开发者会接触整个产品链路(从需求到实现,这恰恰是公司所限制的部分,人人都是螺丝钉)。你所接触到的东西越多,它所放大的开发者能力也会越多。同理你的知识面越广,所能运用的 GPT 能力也就越多(比如需求分析,产品推广等等)。
我现在写代码几乎难以离开 GPT-4,直接提需求,让它完成初稿。Review 一下,稍微改改就可以使用。离开它我依然可以自己写代码,但使用它,却实打实帮我解决掉了 80% 的无聊代码开发任务。现在我只需要专注于更加有趣的部分,比如功能如何交互,技术如何选型,项目如何架构等等。
如果一个开发者之前就已具备独立分析,解决问题的能力,那么 GPT-4 对你而言就是开发利器。你只需要进行简单的角色转换,从一线开发者变成一个技术产品官,用技术口吻提出需求,让 GPT-4 帮你来实现(将 GPT 变成你的打工人,$20 开通 ChatGPT Plus 雇佣一个全能打工人真的不亏)。
写作助手
熟悉我的朋友都应该知道,近一年时间,我写了上百篇文章。从 AI,到技术,再到科普。其中有不少文章都是在 GPT 的辅助下完成的(比如翻译一些英文内容,总结一些关键信息,解释一些术语等等)。但存在一个比较大的问题是,当你在面对不知道的知识时,它的回答随时会出现幻觉,所以这里需要你对 AI 返回内容进行求证(比如查找 wiki,搜索相关内容,从多信息源进行论证)。写文章最基本的要求就是真实,客观(讲一个错误的东西不如不写)
。
生活百科
这部分就比较随意了,你如果遇到了任何不清楚的问题,都可以让它通过对应的角色扮演,来进行问答,一步步深入。
提问技巧
ChatGPT 对于不明确的问题,经常会出现“幻觉”(模型可能产生的误解或错误的输出,ChatGPT:GPT-4 真的变笨了?)。尤其在你都不知道对错的情况下,更是如此。所以网友经常会出现两个极端,一类疯狂吹捧,一类疯狂吐槽。这里其实把握住两个原则即可:
数据存在截止日:GPT 所知的信息都来源于训练时的数据,没有新的更新
GPT-3.5 的知识截止日期是
2021 年 9 月
GPT-4 的知识截止日期是
2022 年 1 月
不能联网:无法实时访问外部信息或互联网
隐私安全:为了确保用户的隐私和安全,GPT 是离线的,不与实时网络相连。如果 GPT 能够实时访问互联网,可能会存在滥用或数据泄露的风险。
稳定性:如果可以实时访问互联网,答案可能会因为外部信息的变动而变得不稳定。
与任何工具或服务交互时,都需要批判性地思考。为了进一步降低幻觉出现的概率,可以尝试使用以下方式来提问:
具体而明确:提问时应尽量详细和明确,避免使用模糊或笼统的词汇。
分步提问:将问题分解成多个小问题,逐一提问,可以帮助获取更准确的答案。
验证答案:如果对某个答案有疑虑,可以从不同角度或用不同的方式再次提问以验证答案。
避免使用引导性问题:尽量避免使用可能导致特定答案的提问方式。
提供背景信息:有时为问题提供一些背景信息可以帮助模型更好地理解和回答。
重新表述问题:如果第一次的回答不满意,可以尝试重新表述或重述问题。
设置上下文:明确地指出你想要的答案的类型或风格,例如:“以简单易懂的方式解释…”。
限定答案长度:例如,你可以要求“请在 50 字内回答…”,这样可以得到更简洁的答案。
提醒模型其功能:例如,可以先说“请按照你的训练数据给我一个准确的答案…”。
避免双重否定:双重否定可能会导致混淆,尽量使用积极的句子结构。
当得到答案时,尤其是涉及重要决策或敏感信息时,应进行进一步的核实和思考。关于提示词可以参考 Prompts:ChatGPT 提示指南。
就我个人而言,更喜欢 ChatGPT Plus,因为它总是最先体验到新功能。不推荐不知名第三方,目前市面上很多基于 OpenAI API 开发的聊天应用,在我看来,如果开发者自身对 AI 理解不够,其程序逻辑将在很大程度上影响输出结果。当事情变成黑盒,出了问题,往往不知该归咎于 OpenAI 还是第三方应用。
总结
AI 现在的生态在我看来还是一盘散沙,割裂的状态(比如:MJ,SD 之类的图像生成式,GPT,Llama 之类的内容生成式,Runway 之类的视频生成式等等)。ChatGPT 掀起的第一波 AI 浪潮已经平息,市场也逐步恢复冷静。下一波大的爆发点大概率是端到端的真正有价值的应用(如果只是聊天娱乐,那也太无趣了)。所以我还是蛮期待 ChatGPT + DALL·E 3
的发布(ChatGPT 集成 DALL-E 3,多模态 AI 即将来临),它可能真的标志着 GPT 作为控制大脑,来指挥各种多模态任务了。
归根结底,AI 再强,使用者依旧是人。在 AI 时代,能够驾驭 AI 的能力才是最需要培养的,也将是我们最大的核心竞争力:
能够对需求或问题进行分析,拆解,流程化(典型的程序员思维)
可以不会做,但是不能不知道,没听过(拓宽知识面,才能做到有的放矢)
对 AI 返回的结果要有足够判断力(知其一,也要知其二)
...