欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 健康 > 养生 > <section id=“nice“ data-tool=“mdnice编辑器“ data-webs

<section id=“nice“ data-tool=“mdnice编辑器“ data-webs

2024/11/30 6:41:31 来源:https://blog.csdn.net/weixin_40262196/article/details/140661194  浏览:    关键词:<section id=“nice“ data-tool=“mdnice编辑器“ data-webs

大模型日报

2024-07-24

大模型资讯

  1. Meta发布最大Llama 3 AI模型,语言和数学能力提升
  • 摘要: Meta公司发布了其迄今为止最大的Llama 3人工智能模型。该模型主要免费提供,具备多语言处理能力,并在语言和数学方面表现出显著提升。
  1. Meta发布最强AI模型Llama 3.1,拥有4050亿参数
  • 摘要: Meta推出了其最新版本的大型语言模型Llama 3.1,拥有4050亿参数,是目前最大的模型。
  1. WTU-Eval: 大型语言模型使用能力评估新标准工具
  • 摘要: WTU-Eval是一款新的标准基准工具,用于评估大型语言模型(LLMs)的使用能力。尽管LLMs在文本生成、翻译和摘要等任务中表现出色,但评估其能力的挑战也在增加。
  1. Meta发布新开源AI模型Llama 3.1 405B
  • 摘要: Meta于周二宣布推出Llama 3.1 405B,这是一款大型语言模型,旨在与Anthropic、谷歌和OpenAI的最先进模型竞争。
  1. Meta推出强大且免费的Llama 3.1 AI模型
  • 摘要: Meta发布了最新版本的Llama 3.1 AI模型,这一模型不仅更加强大且免费,还提升了人工智能的可访问性和定制化能力。然而,这也引发了关于潜在风险的讨论。
  1. 大规模语言模型在心力衰竭临床试验筛选中展现高性价比
  • 摘要: Unlu及其同事比较了大规模语言模型RECTIFIER和人工研究人员在评估患者资格方面的表现,发现语言模型在筛选心力衰竭候选人用于临床试验时展现出更高的成本效益。
  1. Meta发布最新Llama 3.1 AI模型,继续开源
  • 摘要: Meta在Nvidia和云合作伙伴的帮助下,推出了最新的Llama 3.1 AI模型。Llama 3.1是Meta迄今为止最大且最强大的AI模型,并且继续保持开源,方便更多人使用和研究。
  1. Meta发布最大Llama 3 AI模型,语言和数学能力提升
  • 摘要: Meta公司周二推出了其最新版本的Llama 3人工智能模型,这是迄今为止最大的版本。该模型主要免费提供,并在多语言处理和数学能力方面表现出色。
  1. 从RAG到ReST:大语言模型发展高级技术综述
  • 摘要: 大语言模型(LLMs)在自然语言处理领域引发了革命,展示了在各种应用中的卓越能力。本文综述了从RAG到ReST的先进技术,探讨了这些技术在LLM开发中的重要性和应用前景。
  1. 研究发现大型语言模型在逻辑推理上存在显著缺陷
  • 摘要: 一项关于人工智能的研究揭示,即使是最先进的大型语言模型(LLMs)在面对简单逻辑问题时也会出现显著的失败。这一结论表明,当前的AI技术在逻辑推理能力上仍存在明显不足。

大模型产品

大模型论文

  1. AutoAD-Zero:无训练的零样本音频描述框架
  • 摘要: AutoAD-Zero利用视觉语言模型和大语言模型,通过视觉和文本提示策略,无需训练生成电影和电视剧的音频描述,并提出了一个新的音频描述数据集。
  1. LLMmap:大语言模型指纹识别工具
  • 摘要: LLMmap通过发送精心设计的查询并分析响应,能在8次交互内以95%以上准确率识别特定LLM模型,且适用于不同应用层。
  1. SF-LLaVA: 无需训练的视频大语言模型
  • 摘要: SF-LLaVA通过慢速和快速双流设计,结合低帧率细节提取和高帧率运动捕捉,实现无需训练的视频大语言模型,超越现有方法。
  1. MMInstruct:高质量多模态指令调优数据集
  • 摘要: MMInstruct通过GPT-4V、GPT-3.5和人工校正生成973K指令,提升VLLMs性能,覆盖24个领域。
  1. dMel:简化的语音离散化方法
  • 摘要: 本文提出dMel方法,通过将mel滤波器通道离散化为强度区间,简化了语音离散化过程。在ASR和TTS任务中,dMel表现优于现有方法,实现了语音和文本的高效联合建模。
  1. J-CHAT:大规模日语对话语料库发布
  • 摘要: J-CHAT是一个公开的大规模日语对话语料库,旨在提高对话生成的自然性和意义。实验结果表明,使用J-CHAT训练的模型在多个领域表现出色。
  1. Chain-of-Sight加速多模态LLM预训练
  • 摘要: 本文介绍了Chain-of-Sight视觉语言桥模块,通过减少预训练阶段的视觉标记数量,加速多模态大语言模型预训练,节省约73%的训练时间,同时保持或提升性能。
  1. CLIP生成性重放的增量学习新基准
  • 摘要: 提出了一种新的方法,通过生成性重放来对齐任务提示,有效缓解遗忘并提升零样本能力。
  1. 基于LLM的金融新闻结构化提取方法
  • 摘要: 本文提出一种利用大型语言模型处理金融新闻的新方法,能提取公司股票代码、进行公司级情感分析并生成摘要。
  1. LongVideoBench: 长视频语言理解基准
  • 摘要: LongVideoBench是一个长视频语言理解基准,包含3763个视频和6678个问题,用于评估长时间多模态理解能力。

大模型开源项目

  1. 个性化AI的记忆层
  • 摘要: mem0ai是一个用Python编写的项目,旨在为个性化AI提供记忆层功能,提升AI的个性化能力。
  1. C/C++实现LLM推理
  • 摘要: ggerganov项目提供了在C/C++语言中进行大语言模型(LLM)推理的实现,提升性能和效率。

本文由 mdnice 多平台发布

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com