当前位置:主页 > 热点 > 正文
发布时间:2023-03-08 已有: 位 网友关注
北京时间3月7日,谷歌和柏林工业大学的团队重磅推出了史上最大的视觉语言模型——PaLM-E,参数量高达5620亿(GPT-3的参数量为1750亿)。作为一种多模态具身视觉语言模型(VLM),PaLM-E不仅可以理解图像,还能理解、生成语言,可以执行各种复杂的机器人指令而无需重新训练。谷歌研究人员计划探索PaLM-E在现实世界场景中的更多应用,例如家庭自动化或工业机器人。他们希望PaLM-E能够激发更多关于多模态推理和具身AI的研究。
2027年全球RegTech支出将超217亿美
三星Galaxy Note 20系列将于8月5日推
Amazon Prime Video终于在全球范围内
Apple Music的时间同步歌词到达S
Gmail出现了垃圾邮件问题,这是
谷歌,苹果,Facebook,亚马逊首
三星的Galaxy Note 20 Ultra似乎在第
OnePlus Nord将于7月21日正式发布
机器人太火!“美国版宇树”
贵研铂业:签署贵金属新材料产
美联储理事称美关税政策将成推
美国检察官称司法部加密货币政
陈茂波:香港将于6月发表第二份
公安部:缅北果敢“四大家族”
两市融资余额增加190.57亿元
骗享小规模纳税人税费优惠!官