UBS近日发布了一篇研究报告显示,各项技术中,ChatGPT达到全球1亿用户所需时间仅用2个月,而电话用了75年,手机的普及则用了16年;而与各项应用相比,TikTok花了9个月达到1亿用户数,Instagram也花了30个月。然而,从目前的情况来看,说ChatGPT达到“成熟”的标准还为时过早,也并未实现一个可行的盈利模式。一些批评人士认为,ChatGPT可能会编写恶意软件和网络钓鱼邮件。另外,ChatGPT还可以对文本提示做出虚假的回答,研究人员称之为“幻觉”。昆士兰大学商学院研究员史蒂夫•洛基博士(Dr. Steve Lockey)在接受《每日经济新闻》记者的采访时就曾强调,ChatGPT或许比谷歌更容易产生“看似很有说服力”的答案。洛基表示,他曾在学术环境下尝试研究使用ChatGPT,但是ChatGPT并不擅长提供有参考依据的事实信息。它甚至有时会暗示一些看似可信的参考文献——例如,ChatGPT会像模像样地在它给出的答案上写出作者或出现在某个学术期刊上,然而实际上这些都(作者、期刊等)并不存在。针对这一问题,纳德拉则认为,“这对人工智能来说并不新鲜,在当今任何其他类别的软件中也是如此。”他进一步解释称,目前对ChatGPT安全的所有担忧,无论是有害内容还是“幻觉”,只需要通过设计解决。他同时强调,所有的软件工程都必须考虑模型本身是否安全,然后在其之上建立一个安全系统。