看到橘子大模型的回复,陆偲又敲进去了一行文字。
“那么,针对这一局棋,你认为你哪一手棋是致胜的关键?而阿法狗的哪一手有问题?”
橘子大模型只是思考了几秒钟,便给出了回复:“我的关键手分别是第5手、第61手、第119手;而阿法狗在112手的夹我认为是一个致命的失误。”
“正是这一手夹,让黑棋在中腹获得了喘息的机会。”
“但是,阿法狗的表现同样令人惊叹,它在第78手的高位肩冲当时让我非常难以判断接下来的局势究竟如何,而在第146手的‘长’体现了阿法狗非凡的韧性,让我非常惊讶。”
陆偲继续输入:“那么,如果是你,你在那步棋会如何下,才能避免失误?”
橘子大模型闪了闪:“如果是我,第112手我会下在16J的位置上,继续对黑棋保持压力。”
这句话一说出来,现场对人工智能稍稍有研究的人全都震惊了。
这是什么?
这是结合了上下文的连续回答!
一般的对话机器人,有时也能回答出不荒腔走板的答案,但几乎都是一个问题一个回答,从不会把一个问题放在整体语境中来考虑。
但现在,陆偲在对话中并未指出是哪一步棋,更没有指出是谁的失误和什么失误,而橘子大模型就已经明白了陆偲这个问题中所说的失误就是它刚刚在对话中提到的白棋第112手!
真正的人工智能!
不是智障!是智能!
“这并不是事先设定好的回答。”陆偲推了推自己的金丝眼镜,回复高卢新社的记者。
她严肃的科研脸就算没加“巧言令色”都比华泽成可信。
外行看热闹,内行看门道,现场的大多数人都只是对橘子大模型像模像样的回答感到好奇,但deepmind的七八个人可是彻头彻尾的内行。
麻蛋,内行怎么也没看出其中的门道?
这真的不是预先设定的答案吗?
alphaGo将MCTS应用于CNN卷积神经网络,构建出了策略网络和价值网络,这种人工智能本质上是垂直型的人工智能,可以应用在特定的领域,比如下棋,再比如量化交易和风险分析方面。
哈萨比斯的设想,是在解决了围棋问题后,将alphaGo引入到蛋白质的折叠性质预测上,这也是alphaGo比较擅长的方面。
无论是MCTS
本章未完,请点击下一页继续阅读!