DeepSeek 灰测 “识图模式”,实现多模态图片理解功能
DeepSeek正在灰度测试“识图模式”,该模式具备多模态识别能力,能进行深度图像分析与描述,而不仅是OCR文字识别。用户上传图片后可获得快速响应,有网友形容速度如闪电般迅速。
0
3 年 20 倍!AI原生游戏风口将至,超半数主流厂商已完成技术“会师”
AI原生游戏市场预计三年内增长20倍,三七互娱与百度智能云合作,展示AI在游戏研发、运营中的创新应用,推动产业深度变革。
0
腾讯混元推出0.4G手机端离线翻译模型,五一出境游无信号也能通全球
五一黄金周前,腾讯混元团队推出极致量化翻译大模型Hy-MT1.5-1.8B-1.25bit,体积仅440MB,支持手机本地离线运行。通过先进量化技术,模型从3GB压缩至八分之一,可在无网络环境下流畅使用,为出国旅游用户提供便捷语言解决方案。
0
美图RoboNeo升级,首创Agent Teams开启影像创作新范式
美图公司旗下影像AI Agent RoboNeo升级,推出行业首创的影像创作Agent Teams,将AI应用从单体工具转为多Agent协同系统。该方案针对通用大模型“泛化局限”及创作者多工具切换“内耗”痛点,通过角色化分工,为自媒体人、内容团队及“一人公司”提供全链路影像创作解决方案。
0
腾讯混元开源手机端离线翻译模型 Hy-MT1.5-1.8B-1.25bit,仅 440MB
腾讯混元开源了手机端离线翻译模型 Hy-MT1.5-1.8B-1.25bit,将支持 33 种语言的翻译大模型压缩至仅 440MB,无需联网即可在手机本地运行,翻译质量宣称优于谷歌翻译。模型采用极致量化压缩技术,兼顾性能与隐私保护。#腾讯混元##AI 翻译#
0
全国首个“商业人工智能”本科专业获批,中国科大今年率先开设
教育部正式批准中国科学技术大学(中国科大)科技商学院、管理学院增设“商业人工智能(AI for Business)”本科专业。
0
讯飞星火X2-Flash模型发布:深耕国产算力,256K长文本能力跃升
科大讯飞发布星火X2-Flash模型,采用MoE架构,总参数量30B,支持256K超长上下文,完全基于华为昇腾910B集群训练,标志着国产算力生态下大模型应用进入新效能阶段。
0
OpenAI预计ChatGPT订阅用户将达到1.22亿
OpenAI推出8美元/月的低价订阅服务“ChatGPT Go”,已在171个国家上线,旨在降低AI使用门槛。同时计划在美国测试免费版和Go版广告,并制定原则保护用户隐私、确保广告与模型回答独立。据预测,今年消费者订阅用户将达1.22亿。
0
GPT Image 2超越Nano Banana2 登顶全球视觉模型榜首
OpenAI的GPT Image2在SuperCLUE最新评测中超越谷歌Nano Banana2,成为全球文生图模型冠军。该模型自4月21日上线后,在画质、理解力和细节还原度上显著提升,刷新行业标准。评测覆盖多个核心维度,尤其解决了海外模型长期存在的汉语文本生成难题,展现了全面优势。
0
科大讯飞总裁吴晓如:今年 10 月将在华为昇腾 950 平台上发布国产旗舰大模型
科大讯飞总裁吴晓如在公司 2025 年度暨 2026 年第一季度业绩说明会上表示,今年 10 月,公司将在昇腾 950 平台上发布中国首个对标业界最先进主流模型的旗舰大模型。
0
EA CEO 威尔逊:公司 85% 质检工作已由 AI 完成
EA 首席执行官透露,公司 85% 的游戏质检工作已由 AI 算法完成,但质检部门招聘人数却创下新高。AI 目前主要处理基础问题检测,结果仍需人工分析,这反而增加了就业需求。然而,在 AI 被视为未来方向的背景下,全面替代人力也并非不可能。 #游戏行业 AI 应用#
0
Anthropic 推出 “Claude for Creative Work”,助力创意工作高效协作
Anthropic发布“Claude for Creative Work”,将AI从对话助手扩展至专业创意领域。Claude定位为“协作伙伴”,旨在加速构思、拓展能力,减少重复性任务,而非取代人类创意。公司推出与主流创意软件的集成工具,将Claude直接嵌入创作者工作流。
0
2025 年我国数据生产总量达 52.26 泽字节,占全球 27.44%
今天,《全国数据资源调查报告(2025 年)》在第九届数字中国建设峰会上发布。报告显示,2025 年,全国数据生产总量同比增长 27.28%,达到 52.26ZB。从国际来看,我国数据生产总量占全球的 27.44%。
0
日本人形机器人初期验证机“SEIMEI”亮相,临近展示时却发生故障
该机器人身高 140 厘米、重 49 公斤,由于临近展示时发生故障,当天未能公开行走姿态,计划修复后在 5 月底面向公众亮相。
0
科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文
星火 X2-Flash 采用 MoE 架构,总参数 30B,最大支持 256K 上下文,宣称在智能体、代码等能力上实现了大幅提升,基于华为昇腾 910B 集群训练完成。
0
热搜
换一页


