作为AI业内人士聊一聊我们该如何看待蔡浩宇新作

可以服务器部署提供接口,而不是部署在自己机器上,本来ios就不可能直接部署ds

3和4能在手机本地运行我还是有点难以想象,感觉最快也只能通过云来实现吧。这种实时生成的3D模型感觉上对硬件要求很高吧。不过没关注过这方面的技术进展,不太清楚这方面目前发展到哪一步了。
又想了想感觉可以不用实时生成模型只要生成实时渲染的参数就行了

那就是云端呗,云端部署啥机器都一样没区别的

这游戏会怎么收费?不像是能赚钱的样啊。ai部署在服务器上,那开销不得爆炸了,要是部署在手机上,那得什么程度的黑科技能做到流程玩耍?

可以部分云端部分手机端。主要分析问答类还是云,具体生成的调取本地端?

这么说吧,指令可以分,自由指令与规定指令两种,这样可以分流服务器压力。第二,这次测试并没有那么多人,而且付费模式都没定。还有一点,这不是工具型ai,是只要拟真就可以的,不需要庞大数据库支撑。需要的资源没你想那么大。类似的模式在2023年就有人用原神角色接gpt搞过。消耗资源没你想的那么大。而付费其实也好设计,买断门票费,实时对话,开月卡解锁,不开就是每月固定几次机会。我觉得你可以真觉得他是把满血ai接口做调用了,其实更可能的反而是isoul,的ai语音模型。借表现力,形成拟真感觉

业内+1,LZ这边感觉误导性太强了。

目前如果想要大规模商用这种即时生成对话的最大问题其实还是资源部署不够。如果想要模型功能稳定的话起步至少也是微调后的qwen2.5-7b这个大小,因为再往下的话微调后的模型回答就很不稳定了,经常出现一些在设定范围外的答案。 也许有专门为了这种角色扮演/对话类的特殊模型,但是因为我这边工作范围不需要这种场景所以对这方面不了解。现在看来比较符合游戏这套的流程应该是每个重要NPC自己后面接一个对应的微调后模型。但是需要部署这么多模型,而且对并发要求,token/s以及后续其它工具流,所需要的资源实在是太高了,哪怕是int4版的量化也还是需要对应的资源的。

模型跑起来和模型能够实际应用/作为项目用完全是两个概念。

11 个赞

这个游戏单开的讨论有点太多了,信息好分散,我是建议整合一下开个集中的,有个长期跟踪信息的楼。目前ai交互得的游戏我觉得最难的问题还是游戏塔本身程序化的属性,传统的游戏都是建立在一套逻辑规则下的,如何用ai模型真正的去驱动一个有这长期逻辑的驱动的游戏才是这个游戏的看点,以及市场对这个新交互游戏的接受度和这个模式得吸引力。他作为一个推向市场的产品,我觉得真正比较难得点是建立一套对消费者吸引力高的互动体验

7 个赞

不太对,假如是我是做,选择ios,进一步想原因。
其实可能是因为还有种办法。就是ios先天优势他有自带的siro语音助手。假如能利用自身机器接口,做套壳的话。这好像还可以进一步节省服务器成本。不过这就对于机型限制太多了。
这次他单纯ios,我觉得应该没这个考量,但是假如是我来策划结构,可能会想通过自带模型同时调用机器自己的语音助手作为辅助。进一步降低,外部部署服务器的压力。

仅限ai对话的话,逆水寒燕云已经大规模商用了,好多npc都能ai对话,而且似乎会影响他的行为,但是不清楚具体的部署方案。虽然我不是nlp领域的,但我猜并不需要给每个npc搞单独的模型,同一个模型可以用不同prompts来生成不一样的输出,对于不同npc,微调prompts即可。另外我比较好奇如何让llm拥有长期记忆,像逆水寒燕云那种聊着聊着就忘了前面说的话有点搞笑,对于真正意义的ai npc,如何长期保证人设也许是一个难点

4 个赞

不,逆水寒和燕云的AI+NPC方案只是NLP也就是自然语言处理,是属于ANI也就是弱人工智能的技术路线,本质还是通过预设方案做出有限的临场反应。
蔡喵在做的这个不是ANI技术,已经半只脚踏在AGI的门槛上了,是AIGC,也就是AI产生游戏内容,而不仅仅是预设对话了。
说具体点,他们这种NLP只是个小玩具,而蔡喵的AIGC是生产力工具。打个比方,NLP等于是点阵图时期的2D仿3D,而AIGC就已经是3D游戏引擎了。

7 个赞

总结得很好,欢迎玩过逆水寒和燕云的玩家来聊一聊ai方面的体验,由于我只是耳闻并未目睹所以可能有不少信息差

……你是不是没见过星布谷地,只有一个名字的时候就已经没人带抄袭节奏了。
米家游戏没节奏不玩。

1 个赞

你这就有点乱说了,逆水寒和烟云对话用的肯定还是大模型,也做了口型匹配,不过动作应该是预设的动作库,说多了能看出来重复。

至于老蔡的你可以暂且理解为细化升级版,表情动作更丰富,但比较具体细节还未公开,其它方面目前还是无从知晓的。
比如:
记忆能否在一个流程内完美保持?
动作是更大的预设库还是ai 实时生成无重复?
是有预设的行为树,还是完全ai 生成并控制?
是有预设的故事线,还是完全由ai 进行发散?
角色与环境的交互能在ai 的驱动下做到能做到什么程度?例如识别、捡东西、扔东西、制作、破坏等。
能做到里面任何一点都可以大大提升可玩性。

当然一句话来说如果实时游戏能够达到鹿鸣直播的那种效果就最好了 :br_000:

2 个赞

唉,你自己基础知识没搞懂,张口就是我乱说。
第一,ANI不代表没有使用大模型,我说他这个不行,主要是他使用了大量预设条件达到目前的效果,还达不到AIGC的层次。而蔡喵这个是直接明说了要做AGI的,是真正要做AIGC的,这是根本上的不同。
第二,原铁绝早就在用语音口型匹配了,你想说原铁绝也早就开始用AI+NPC了吗?
可能不少人都会被他们说的接入kimi,豆包,ds所迷惑,以为他这个也是AIGC了,其实差的远。如果这么容易就做成AIGC了,那蔡喵还费劲搞Anuttacon做什么?
就像我打的那个比方,点阵图时代的2D仿3D,终究不是3D。

至少这个demo目前看仍需要不少预设条件和内容,还得再多迭代迭代,离完全的AIGC还有不少路要走。当然,要是这个预告片外还藏有东西,能直接打我脸更好 :dt_3_:

同为ai专业研究生,我个人觉得蔡浩宇新游可能是云端+边缘计算。本地轻量化模型处理一些需要及时响应的交互,而云端则是处理一些复杂的交互同时游戏中用通讯不稳定来掩饰云端处理的延迟。

1 个赞

玩过燕云,NPC有对话选项点进去,会根据你输入的文字给出回答,类似贴吧里那种角色对话,壁吧签到下面那个