与人工智能合作:采访 Stanford 大学的 Jeff Hancock
自2022年11月ChatGPT首次亮相以来,在我们的办公室和世界各地,围绕人工智能(AI)的作用引发了许多对话--从我们如何使用它,到我们使用它的目的,再到它将如何重塑我们的工作和日常生活。
2023年3月14日,OpenAI发布了自然语言处理技术的新版本GPT-4,它具有处理图像以及文本的能力--尽管这目前只对付费用户开放。这个先进的系统具有更广泛的能力,并提高了准确性,该公司报告说,它在律师考试中的得分达到了90分。
随着技术件的快速变化,Vivaldi ,采访了 Jeff Hancock他是斯坦福大学社会媒体实验室的创始主任和斯坦福大学哈里和诺曼-钱德勒传播学教授,以了解对人工智能持续发展的看法,以及它可能被用来做坏事和好事。
--
Vivaldi:目前有很多关于ChatGPT的新闻和对未来的猜测--在过去几年里,人工智能已经如何改变了我们的一些工作或互动方式?
杰夫-汉考克:拼写检查产生于80年代的斯坦福大学人工智能实验室。现在没有人认为拼写检查是有趣的人工智能,但它确实改变了我们的工作方式。自动完成、自动更正--这些东西改变了我们彼此之间的沟通方式。
在你的研究中,你发现人类已经无法区分人类写的东西和机器写的东西了,这有什么潜在的危险和潜在的机会?
我认为首要的危险是围绕着信任;这些技术可以破坏对彼此的信任,对任何在线的东西,对沟通的信任。我们在以前的一篇论文中看到,一旦我们告诉参与者,我们向他们展示的一些东西可能是人工智能,他们就会变得非常怀疑,不相信一切。
一种积极的方式是,它只是像拼写检查那样被纳入,我们并没有真正地去想它。我们改善了我们的工作生活,我们能够做更多的事情,或者用更少的时间做同样的事情,并且可以花更多的时间与我们的家人在一起。我认为重要的实际上不是技术,而更多的是我们说什么是好的;社会契约和社会规范,在什么时候可以和应该使用这些东西。在这方面仍有许多工作要做。
关于信任问题和披露人工智能的使用情况--在这方面是否有 "最佳做法",还是仍在发展之中?
我认为最佳做法正在出现。我不认为每次使用人工智能都会被披露,那就像表明使用了拼写检查一样,但当这些东西没有被使用时,人们会逐渐理解它。我认为社会上有很多关于这些东西什么时候能用,什么时候不能用,或者当它被使用时如何归因的对话。
它每天都在变化。
人们的信念也是如此。在12月,它是一个很大的奇迹,和兴奋,然后有一些恐惧,如,哇,他们是如此之好,他们可以把我们的工作,现在它是像这些东西是有点疯狂。我们对它们的信念改变了,然后随着我们的信念改变,即使技术没有改变,这也改变了我们的互动,以及我们认为合理、道德和有效的东西。在人类方面,有很多东西我们仍在努力解决。
你认为哪些担心是没有根据的,哪些是我们应该更加关注的领域?
它不会取代大多数人的工作。当然,在短期内不会。人们会发现它的真正用处,那就是在更受限制的情况下制作初稿或编辑草稿。它可以帮助你写作,但你不能依赖它。你必须和它一起工作。他们发现把它和搜索引擎连接起来没有他们想象的那么非同小可,而且准确性很重要,他们似乎并不工作得超级好。这并不令人惊讶。分类将是一个将被大量使用的东西,但它还没有被谈及很多。
有这么多关于不同行业被颠覆的讨论--像咨询这样的行业会如何被颠覆?
咨询在某些方面是关于提出真正好的问题。我认为GPT在帮助思考这些问题方面真的很棒。如果你是一个顾问,你说好吧,让我们试着了解这种做法,不管它是什么,是否是好的。GPT有一种方法可以说,好吧,这里是在这种情况下的结果,现在是这家公司正在做什么。对于A公司和B公司,我们认为哪个会导致最好的结果?无论它是否正确,它肯定会帮助你想出为什么它的回答方式,基于它对事物运作方式的大量知识。如果我是做咨询的,我会很兴奋,开始使用这个工具,作为获得洞察力的一种方式。
你在社交媒体方面也有深厚的专业知识。早期的网络和社交媒体世界有很多都是由付费广告驱动的--这对ChatGPT这样的系统或其他人工智能程序可能意味着什么?
一个真正简短的答案是,我不知道。我们做出了关于社交媒体的决定,我们希望它是免费的,为了做到这一点,我们不得不使用广告。这导致了各种各样的问题,特别是围绕着社交媒体如何优化参与,这显示出了问题,产生了意想不到的后果。这里的问题将是,谁将为之付费,如何付费?如果你不免费提供一些这样的工具,那么我认为有可能会加剧不平等。因此,我认为一个模式,希望不是默认的广告,而是一个允许每个人获得这些工具的大部分的模式将是首选。
社交媒体公司在其平台上发布的内容方面有一些法律保护。这是否也会被用于人工智能的使用,或者说,如果因为人工智能的言论而发生了什么,公司是否会被追究责任?
对于社交媒体,规则实际上是很清楚的,尽管现在有两个对法律的挑战。他们对发布的大多数内容不承担责任,他们有一些责任,而且有受保护的言论自由。这里就不清楚了。公司得到广泛的言论自由保护,但他们没有像平台那样有第230条的保护。如果它产生了导致伤害的东西--最初如果你问如何自杀,它就会告诉你。如果发生了这种情况,那么谁应该负责?是人工智能的建造者,是用它来做这件事的人,还是这个工具?我认为这些都是重要的问题。
你最想看到未来的发展是什么?
我对信任和福祉非常感兴趣,以及这些工具如何能够被用来加强而不是破坏。在咨询、辅导、导师制方面有巨大的空间,似乎有相当严重的缺乏--我们没有足够的咨询师或教练或导师给需要他们的人。当涉及到信任时,有许多开放的问题。你什么时候可以信任机器来帮助你?围绕合成媒体的担忧是否会导致我们像这样,在我们见面之前,我不相信任何人--从而真正拨高人们想要面对面交流的程度?这将是非常酷的。
如果它推到另一个方向,推到现实世界,这是一个有趣的后果。
没错,如果人工智能的出现意味着网上的一切都将被视为虚构。十年后再来看看。
--
你对人工智能的未来有什么看法?告诉我们你的企业是如何利用人工智能的: hello@vivaldigroup.com