在11月7日凌晨,OpenAI全球开发者大会宣布了 GPT-4的一次大升级,推出了 GPT-4 Turbo号称为迄今为止最强的大模型。
此次GPT-4的更新和升级在多个方面显示出强大的优势和潜力。为了让集简云用户能快速体验新模型的能力,我们第一时间整理了大会发布的模型,并率先将新模型接入到集简云中:
● 新增GPT-4 Turbo with Version: 带视觉识别的GPT4模型
● 新增GPT-4 Turbo 模型:支持最大128K上下文内容
● 新增Dall.E 3 图像模型
● 更新Whisper模型
● 更新GPT-3.5模型
● 新增GPT3.5 Fine Tuning微调功能
新增GPT-4 Turbo with Version: 带视觉识别的GPT4模型
功能亮点
在此次模型升级中,带有视觉能力的 GPT-4 Turbo也备受瞩目,GPT-4-vision–preview已突破文本限制,可以直接在聊天框中分析图像照片,提供详细分析和读图功能。
可以预见的是,开放GPT-4图像输入能力,意味着AI向新领域的进军,也势必会引发业务模式与应用使用的巨大变革。在很多涉及视觉工作(图片和视频)解析的业务场景中,将有更多重复劳动被释放,提升高价值工作的专注力。
汽车的这个指示灯亮了,我该怎么办?
更多使用示例
GPT-4 Turbo
功能亮点
相较于GPT-4支持最多32k token,GPT-4 Turbo的出众之处在于支持128k上下文,相当于 300 页文本,在处理长篇对话和内容生成方面的能力更强大了!
是成为客户支持聊天机器人、虚拟助理等实时应用程序的最佳选择,该最新模型的性能可以确保用户在几秒钟内获得准确且相关的响应,更深入您的业务场景,实现真正无缝、自然的对话。
例如:复制近 90 分钟的写作讲座字幕,在GPT-4中输入总结的指令,GPT-4 Turbo迅速整理出了该讲座每个部分的要点,并且还可以根据每个要点进行深入扩展。
DALL·E 3
DALL·E 3与DALL·E 2的对比
与DALL·E 2相比,DALL·E 3表现出更卓越的性能和更细腻的细节处理能力更让人欣喜。即使在相同的提示下,DALL·E 3生成的图像在细节、清晰度和明亮度等方面均超越了DALL·E 2,大幅降低了提示词的门槛,同时语义理解和细节描绘能力大幅增强。
另外DALL·E 3可以在ChatGPT原生中直接使用,我们可以直接通过ChatGPT来创建和优化提示词,使图像生成过程更为直观和便捷。不仅减小了提示词门槛,用户还可以通过对话式交互来迭代和完善图像,为创作者提供更具个性化的体验。
效果展示
描述词:
如何使用?
Whisper
全面升级
Whisper 是 OpenAI 开源的一款语音转文本模型。新版本 Whisper large-v3也正式上线,其特点是提高了各种语言的识别性能,能快速准确地将音频转录成文本,并且也可以在ChatGPT原生中直接使用。
应用场景
● 视频及电话会议:将会议纪要语音转换为文本,使得会议记录更加准确,也方便后续的阅读和分析。
● 语音翻译:Whisper可以将一个语言的语音转换为相应的文字,再通过机器翻译算法将其翻译成目标语言的文本,使人们能够跨越语言和文化的障碍进行交流。
● 讲座记录:对大型讲座或演讲的语音内容进行实时记录,使得听众可以更加专注于演讲内容,而不必担心遗漏笔记。
● ……
如何使用
方式1:数据流程搭建时选择内置应用OpenAI Whisper(无需账户)
更新GPT3.5/新增GPT3.5 Fine Tuning微调功能
此次在接入新模型的同时,集简云对 GPT3.5也进行了更新,并新增GPT3.5 Fine Tuning微调功能。
此前的GPT-3.5会一些局限性和问题,使用起来不能很好地适应特定领域或场景的需求,而现在我们可以通过微调,进行个性化定制,让该模型更好地满足自己的使用需求。