Open AI:AI模型应该提供可解释性的信息

OpenAI 首席科学家 Ilya Sutskever 在 VentureBeat2019 转换会议上表示,未来的 AI 模型应该提供可解释性的信息。“神经网络中的可解释性是一个非常重要的问题,因为当神经网络变得更聪明时,理解为什么它们会做出特定的预测就更为可取。”他说。“随着这项工作的进展,我希望看到的是,我们能将可解释性工具应用于语言模型和其他领域的模型,并且我们可以使用模型的语言能力来解释并使用它的决策。“

Open AI 去年研发出一种革命性的人工智能写作系统,可以撰写以假乱真的新闻故事和仿写名家小说作品。但这家非营利性 AI 研究机构未向公众发布完整的研究成果。当时,他们表示,希望有更多的时间来讨论技术突破所带来的影响,并确保它能让人受益。

【数字叙事 耳闻】

有问题和想法?与数字诗人讨论、交流,以获得更多的信息、意见。

赞赏
耳闻
耳闻
我听到我想和我能听到的东西
本文系数字叙事原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

订阅

受欢迎的

相关文章
Related