文明6吧 关注:510,765贴子:4,564,063

论DQN强化学习能否用在AI上,加强玩家PVE体验

只看楼主收藏回复

这游戏无论什么难度玩到后期就算神难度也是纯数值,AI行为一样蠢,那么我就在想,如果2K能把AI接口开源出来,是否可以用DQN算法来实现AI的强化学习,通过玩家之间的PVP来训练AI的行为逻辑,并设计一套价值评分系统,对每次操作能领先对手的科文、军事、城邦加成等所做出的行为进行一系列评估,并根据不同文明特性有不同的权重,可惜2K没把AI接口开放,不然AI真可能学到老马爆铺鬼城学院,区域也不会规划那么屎


IP属地:广东1楼2023-09-02 23:09回复
    ai的蠢笨逻辑,是为了增强玩家“运营后反超ai”的体验感,而故意被设计成这样的。


    IP属地:加拿大来自iPhone客户端2楼2023-09-02 23:37
    收起回复
      这是席德.梅尔对玩家的爱


      IP属地:加拿大来自iPhone客户端3楼2023-09-02 23:37
      回复
        让AI学玩家那你考虑下怎么挡住神AI小马一波


        IP属地:广东来自Android客户端4楼2023-09-02 23:42
        收起回复
          远古3弓3棒来一波,古典砍树小马和寡头铁剑各来一波,中世纪骑士来一波,文艺复兴来一波野战炮和胸甲……就这么搞我保证能把玩家恶心死


          IP属地:贵州来自Android客户端5楼2023-09-03 00:45
          回复
            你的想法可以,但是不可能实现,设计师故意把ai设计蠢是为了保障大部分人的游戏体验。如果ai都学会骗宣联宣,学会抢基尔瓦抢牛顿,学会砍树出火箭出骑兵刮玩家的地,请问又有几个人能玩的下去?


            IP属地:中国香港来自手机贴吧6楼2023-09-03 01:20
            收起回复
              支持,很期待文明7能做到


              IP属地:甘肃来自Android客户端7楼2023-09-03 02:21
              回复
                这是未来游戏ai的必经之路,就看f社什么时候做了


                IP属地:湖北来自Android客户端9楼2023-09-03 02:35
                回复
                  建议pvp


                  IP属地:浙江来自Android客户端10楼2023-09-03 03:53
                  收起回复
                    有说ai强影响游戏体验的,从开拓者到神这八个难度分划是干什么用的moba游戏出了超强人机玩家也没玩不下去啊,玩不了高难度不会自己选吗?如果ai会这些就不能玩了,那玩PVP的算怎么回事?加强ai智能其实就是让PVE也能获得类PVP的体验


                    IP属地:北京来自Android客户端11楼2023-09-03 06:08
                    收起回复
                      是的,越更新ai越弱了,无dlc原版ai200t前就开始爆铺航空港,越到后期兵越多,现在后期反而没兵了


                      IP属地:美国来自iPhone客户端12楼2023-09-03 07:27
                      回复
                        那他不还得掏服务器的钱,所以绝对不可能


                        IP属地:北京来自Android客户端13楼2023-09-03 07:52
                        回复
                          有没有相关代码看看


                          IP属地:北京来自Android客户端14楼2023-09-03 09:12
                          回复
                            嫌ai太弱可以打一个真实策略和late game ai mod,两个mod一起用,这几天被虐杀。标速180ai刚果两千文化,印加飞天走了三个项目,玩不了一点,而且ai也是铺了十几个城。


                            IP属地:广东来自Android客户端15楼2023-09-03 10:04
                            回复
                              强化学习感觉挺难的,主要是损失函数很难设计,奖励惩罚也很难做。有种偷懒的做法,收集上万对局详情,直接做个大模型来拟合,损失函数就直接用交叉熵,炼就完了。


                              IP属地:四川来自Android客户端16楼2023-09-03 11:31
                              回复