城市镜像.新闻汇总 2020-03-08

消息来源:新华网 人工智能在不断发展的同时,其背后算力的消耗也十分惊人 有统计显示,谷歌公司研发的伯特预训练语言模型,拥有3.4亿个数据参数,而训练它一次所需的电力足够一个美国家庭使用50天 承载了人类未来大梦想、大可能和巨大挑战的人工智能, 火了这么些年,取得了长足的发展,与之相辅相成的,是人工智能日益庞大的架构体系,诸如常以十亿计的计算单位,庞大的云计算数据中心 越来越大是人工智能的现实与未来吗 伯特是谷歌公司高级研发科学家雅各布·德夫林Jacob Devlin和他的团队开发的预训练语言模型PLM,它可以理解单词和上下文,可以为写作提出建议或独立完成的句子 于建港则认为,微型人工智能会导致分布式人工智能的兴起,每个终端都成为一个AI节点,各自都能独立存活,出现类似区块链的应用 网络侧的控制力度将降低,政府的管控风险加大 。