GoogleNext2024上周放出了不少狠货,这次OpenAI没能够压下去热度。
首先是GeminiPro1.5进行了一大波升级,并且所有人都可以使用了。
详细更新内容有:
Gemini现在可以理解音频内容:Gemini不仅能理解多达9.5小时的音频内容,还能感知你话语中的语调和情感。甚至可以听到背景音。
能处理无限量的文件:现在几乎可以上传无限数量的文件(包括图片、视频帧和音频)让Gemini处理
函数调用和系统指令的进一步改进:可以选择模式来限制模型的输出,提高可靠性。选择文本、函数调用或仅函数本身,
推出了JSON模式:指示模型仅输出JSON对象。此模式可从文本或图像中提取结构化数据
具有改进性能的新嵌入模型:新模型text-embedding-004在MTEB基准测试中实现了更强的检索性能,并超越了具有相似维度的现有模型,
详细的更新公告在这里:
Google的Imagen2图像生成模型现在已经可以通过文本生成4秒的视频。
还开源了一个基于Gemma的系列模型CodeGemma。
CodeGemma7B模型在数学推理方面的能力出众,代码生成能力很强。经过指令调优的CodeGemma7B模型,在Python编程方面表现更为强大。
技术报告地址:
其他动态◆
OpenAI发布了GPT-4Tubro模型正式版,推理能力和代码能力很强。
SDXL的Tile模型2.0发布了演示的效果非常强,可以用在图片内容修改和放大上。
Cohere还发布了一个专门为了RAG设计的基础模型Rerank3。
Meta正在印度和非洲部分地区的WhatsApp、Instagram和Messenger用户中测试MetaAI。
Claude30pus已经可以在谷歌VertexAI上使用。
CommandR+模型专门为了东亚语系做了优化,他们的技术报告。