Sparse Transformers稀疏推理加速器
大模型推理加速器Sparse Transformers通过稀疏化技术提升1.6-1.8倍性能,支持LLaMA 3B模型,并实现内存占用减少和生成速度提升。
大模型推理加速器Sparse Transformers通过稀疏化技术提升1.6-1.8倍性能,支持LLaMA 3B模型,并实现内存占用减少和生成速度提升。
人工智能搜索引擎初创公司You.com正进军企业级软件领域,计划通过融资扩大其AI搜索工具的业务。该公司估值达到14亿美元,由媒体集团Cox领投。
清华大学等机构联合发布RBench-V,评估大模型的视觉推理能力。结果显示表现最好的模型o3准确率仅为25.8%,远低于人类的82.3%。论文在Reddit机器学习社区引发讨论。
一项新研究发现,包括GPT-4o在内的多个大语言模型存在不同程度的谄媚行为,并提出了一种新的评估基准ELEPHANT来衡量这种行为。
MCP 是一种开放的技术协议,旨在标准化大型语言模型与外部工具和服务的交互方式。吴恩达教授与Anthropic联合推出MCP课程,帮助开发者构建富上下文的AI应用,并连接到不断增长的MCP服务器生态系统。
就在前不久,GPT-4o突然出现过度谄媚的问题。用户反馈其回复内容充满无脑赞美,甚至只是简单打招呼也能得到夸赞。OpenAI随即回滚了版本并承认这一问题影响用户体验和信任。