Runway Act One 再次升级,可将新表演映射到原视频角色
Runway Act One 新增表演映射功能:用手机拍摄的真人视频,可将表情与口型精准迁移到原视频角色上,支持真人、3D及动漫等多种类型,无需重拍、不依赖专业布光,大幅提升试演与迭代效率。
Haiper.ai 推出 2.5 增强模式
Haiper.ai 上线 2.5 增强模式,支持在时间轴上精确定位关键帧图像,显著提升视频连贯性与细节表现力,让创作者对动态内容的控制更精准、更直观。
ComfyUI 现已支持 Luma 绘画模型 Photon
ComfyUI 新增支持 Luma AI 的 Photon 绘画模型,通过安装「ComfyUI-LumaAI-API」插件即可调用。支持文生图、图像/角色/风格参考及图像修改等多类工作流,适用于微距摄影、矢量插图、华丽服饰设计、动物形态转换等创意场景。
第一天:OpenAI 发布 o1 专业模式
OpenAI 在“12 Days of OpenAI”首日推出 o1 专业模式,面向数据科学、编程与案例法分析等高要求场景,以延长推理时间为代价显著提升响应准确性与可靠性;采用“4/4 可靠性”严苛评估标准,在数学、科学和编程基准中超越 o1 及 o1-preview;仅限 ChatGPT 专业用户使用。
摩根士丹利如何利用人工智能塑造金融服务未来
摩根士丹利将GPT-4深度集成至财富管理流程,推出“AI @ Morgan Stanley Assistant”等内部工具,98%顾问每日使用,显著提升信息检索、报告摘要与客户响应效率;通过严格评估框架保障合规性与可靠性,并拓展至会议纪要、多语言处理等新场景。
谷歌 DeepMind 推出 AI 天气预测模型:GenCast 准确率创新高
谷歌 DeepMind 推出全球首个高分辨率(0.25°)概率集成AI天气模型GenCast,基于扩散模型与40年ERA5数据训练,单TPU仅需8分钟即可完成15天预测,在97.2%任务上超越ECMWF的ENS系统,尤其擅长极端天气路径预测与风能预报,代码与权重已开源。
海螺 AI I2M-01-live 模型测试
海螺AI推出I2V-01-Live图生视频模型,直接以一年前Midjourney v5.2生成的3D卡通人物图为输入,未加任何提示词,即实现自然眨眼、口型同步、头发飘动与丰富肢体动作,展现出色的2D插画风格动态生成能力。
实现图像可控运动的 AI 视频生成框架: I2VControl
字节跳动推出I2VControl视频生成框架,支持精细化运动控制:可独立或协同调节镜头运动(如希区柯克变焦、环绕拍摄)与物体运动(拖拽、运动笔刷),轻松实现动态肖像、飘逸长发等特效,显著提升AI视频的可控性与表现力。
Luma 发布绘画引擎 Photon 性能超越 Midjourney
Luma推出全新图像生成引擎Photon及极速版Photon Flash,在双盲测试中质量、创造力与理解力全面超越Midjourney等主流模型;1080p图像生成成本低至0.4美分,速度提升超10倍,专为电影、设计与艺术创作优化。