Denken

Arbeiten mit KI: Ein Interview mit Jeff Hancock aus Stanford

Vivaldi AI-Arbeit

Seit der Vorstellung von ChatGPT im November 2022 sind in unseren Büros und weltweit viele Gespräche über die Rolle der künstlichen Intelligenz (KI) entbrannt - von der Frage, wie wir sie nutzen, wofür wir sie einsetzen und wie sie unsere Arbeit und unser tägliches Leben verändern wird.

Am 14. März 2023 veröffentlichte OpenAI GPT-4, eine neue Version der Technologie zur Verarbeitung natürlicher Sprache, die sowohl Bilder als auch Text verarbeiten kann - allerdings ist dies derzeit nur für zahlende Abonnenten verfügbar. Dieses fortschrittliche System verfügt über noch weitreichendere Fähigkeiten und eine höhere Genauigkeit, wobei das Unternehmen berichtet, dass es bei der Anwaltsprüfung im 90.

Da sich die Technologie schnell verändert, sprach Vivaldi mit Jeff Hancockdem Gründungsdirektor des Stanford Social Media Lab und Harry und Norman Chandler Professor für Kommunikation an der Stanford University, um einen Überblick über die fortschreitende Entwicklung der künstlichen Intelligenz zu erhalten und zu erfahren, wie sie eingesetzt werden kann - zum Schlechten und zum Guten.

--

Vivaldi: Derzeit gibt es so viele Nachrichten über ChatGPT und Spekulationen über die Zukunft - wie hat KI in den letzten Jahren bereits die Art und Weise verändert, wie wir arbeiten oder interagieren?

Jeff Hancock: Die Rechtschreibprüfung kam in den 80er Jahren aus dem KI-Labor in Stanford. Heute hält niemand mehr die Rechtschreibprüfung für eine interessante KI, aber sie hat unsere Arbeitsweise verändert. Autovervollständigung, Autokorrektur - diese Dinge haben die Art und Weise verändert, wie wir miteinander kommunizieren.

In Ihrer Forschung haben Sie herausgefunden, dass Menschen nicht mehr zwischen etwas, das von einem Menschen geschrieben wurde, und etwas, das von einer Maschine geschrieben wurde, unterscheiden können - was sind die potenziellen Gefahren und Chancen, die sich daraus ergeben?

Ich glaube, die größte Gefahr ist das Vertrauen. Diese Technologien können das Vertrauen ineinander, in alles, was online ist, in die Kommunikation untergraben. Wir haben in einer unserer früheren Arbeiten gesehen, dass die Teilnehmer sehr misstrauisch wurden und allem misstrauten, sobald wir ihnen sagten, dass einige der Dinge, die wir ihnen zeigten, KI sein könnten.

Eine positive Möglichkeit ist, dass es einfach übernommen wird, wie die Rechtschreibprüfung, und wir nicht mehr darüber nachdenken. Wir verbessern unser Arbeitsleben, wir sind in der Lage, mehr zu tun oder das Gleiche in viel kürzerer Zeit zu tun, und wir können mehr Zeit mit unserer Familie verbringen. Ich glaube, es kommt weniger auf die Technik an als auf das, was wir für in Ordnung halten, auf den Gesellschaftsvertrag und die gesellschaftlichen Normen, die festlegen, wann diese Dinge genutzt werden können und sollen. Hier gibt es noch eine Menge Arbeit zu tun.

Was den Aspekt des Vertrauens und die Offenlegung des Einsatzes von KI betrifft - gibt es dafür "bewährte Verfahren" oder ist das noch in der Entwicklung?

Ich denke, dass sich bewährte Verfahren herausbilden. Ich glaube nicht, dass KI jedes Mal, wenn sie eingesetzt wird, offengelegt werden muss - das wäre so, als würde man angeben, dass die Rechtschreibprüfung benutzt wurde. Ich denke, dass es in der Gesellschaft viele Diskussionen darüber gibt, wann diese Dinge eingesetzt werden können und wann nicht, oder wie man sie zuordnen kann, wenn sie eingesetzt werden.

Das ändert sich irgendwie jeden Tag.

Genauso wie die Überzeugungen der Menschen. Im Dezember herrschte große Verwunderung und Aufregung, dann kam die Angst: "Wow, die sind so gut, die könnten uns die Arbeit wegnehmen", und jetzt heißt es: "Diese Dinger sind irgendwie verrückt. Unsere Überzeugungen ändern sich, und wenn sich unsere Überzeugungen ändern, auch wenn sich die Technologie nicht geändert hat, ändert sich unser Umgang mit ihnen und das, was wir für vernünftig, ethisch und effektiv halten. Auf der menschlichen Seite gibt es vieles, was wir noch ausarbeiten müssen.

Welche Befürchtungen sind Ihrer Meinung nach unbegründet, und in welchen Bereichen sollten wir uns mehr Sorgen machen?

Sie wird nicht die Arbeitsplätze der meisten Menschen übernehmen. Jedenfalls nicht in naher Zukunft. Die Leute werden herausfinden, wofür es wirklich gut ist, nämlich für die Erstellung erster Entwürfe oder die Bearbeitung von Entwürfen in einem engeren Kontext. Es wird Ihnen beim Schreiben helfen, aber Sie können sich nicht darauf verlassen. Man muss mit ihr arbeiten. Sie stellen fest, dass die Verbindung mit einer Suchmaschine nicht so trivial ist, wie sie dachten, und dass Genauigkeit wichtig ist, und sie scheinen nicht besonders gut zu funktionieren. Das ist nicht überraschend. Klassifizierung wird etwas sein, das viel genutzt werden wird, aber es wurde noch nicht viel darüber gesprochen.

Jeff Hancock, Gründungsdirektor des Stanford Social Media Lab und Harry und Norman Chandler Professor für Kommunikation an der Stanford University

Es wird so viel über die Umwälzung verschiedener Berufe geredet - wie würde eine Branche wie die Beratungsbranche dadurch umgewälzt werden?

Bei der Beratung geht es in gewisser Weise darum, wirklich gute Fragen zu stellen. Ich denke, GPT ist wirklich großartig darin, dabei zu helfen, herauszufinden, was die Fragen sind. Wenn Sie ein Berater sind, sagen Sie, okay, versuchen wir zu verstehen, ob diese Praxis, was auch immer das sein mag, gut ist. Mit GPT kann man sagen: Okay, das sind die Ergebnisse in diesem Kontext, und jetzt kommt das, was dieses Unternehmen tut. Was wird unserer Meinung nach bei Unternehmen A und Unternehmen B zum besten Ergebnis führen? Ob es nun richtig ist oder nicht, es wird Ihnen auf jeden Fall dabei helfen, herauszufinden, warum es so antwortet, wie es antwortet, basierend auf seinem enormen Wissen über die Funktionsweise der Dinge. Wenn ich in der Beratung tätig wäre, würde ich mich freuen, wenn ich dieses Tool zur Gewinnung von Erkenntnissen einsetzen könnte.

Sie verfügen auch über umfassende Kenntnisse im Bereich der sozialen Medien. Ein Großteil der frühen Online- und Social-Media-Welt wurde durch bezahlte Werbung angetrieben - was könnte das für ein System wie ChatGPT oder andere KI-Programme bedeuten?

Die wirklich kurze Antwort lautet: Ich weiß es nicht. Wir haben Entscheidungen über soziale Medien getroffen, die wir kostenlos anbieten wollten, und dafür mussten wir Werbung einsetzen. Das hat zu allen möglichen Problemen geführt, vor allem in Bezug darauf, wie soziale Medien für das Engagement optimiert sind, und das hat sich als problematisch erwiesen, mit unbeabsichtigten Folgen. Hier stellt sich die Frage: Wer wird dafür bezahlen und wie? Wenn man einige dieser Tools nicht kostenlos zur Verfügung stellt, besteht meiner Meinung nach die Gefahr, dass sich die Ungleichheit noch verschlimmert. Ein Modell, das hoffentlich nicht nur Werbung vorsieht, sondern jedem den Zugang zu den meisten dieser Instrumente ermöglicht, wäre meiner Meinung nach vorzuziehen.

Unternehmen der sozialen Medien verfügen über einen gewissen Rechtsschutz in Bezug auf das, was auf ihren Plattformen gepostet wird. Wird dies auch für die Nutzung von KI gelten, oder werden die Unternehmen haftbar gemacht, wenn etwas aufgrund der Äußerungen einer KI passiert?

Bei den sozialen Medien sind die Regeln eigentlich ziemlich klar, auch wenn es jetzt zwei Anfechtungen der Gesetze gibt. Sie sind für die meisten Inhalte, die gepostet werden, nicht haftbar, sie haben eine gewisse Verantwortung, und es gibt eine geschützte Meinungsfreiheit. Hier ist es nicht klar. Das Unternehmen genießt zwar einen weitreichenden Schutz der freien Meinungsäußerung, aber es hat nicht den gleichen Schutz wie Plattformen nach Abschnitt 230. Wenn das Unternehmen etwas produziert, das zu einem Schaden führt - zunächst würde es Ihnen sagen, wie Sie Selbstmord begehen können, wenn Sie danach fragen. Wenn das passiert, wer ist dann verantwortlich? Ist es der Erbauer der KI, die Person, die sie dazu benutzt hat, oder ist es das Werkzeug? Ich denke, das sind alles wichtige Fragen.

Worauf freuen Sie sich am meisten, wenn Sie die Entwicklung in der Zukunft sehen?

Ich interessiere mich sehr für Vertrauen und Wohlbefinden und dafür, wie diese Instrumente eingesetzt werden können, um das Vertrauen zu stärken, anstatt es zu untergraben. Es gibt einen riesigen Bereich in der Beratung, im Coaching und in der Mentorenschaft, in dem es einen ernsthaften Mangel zu geben scheint - wir haben nicht genug Berater, Coaches oder Mentoren für Menschen, die sie brauchen. Wenn es um Vertrauen geht, gibt es so viele offene Fragen. Wann kann man einer Maschine vertrauen, dass sie einem hilft? Werden die Bedenken im Zusammenhang mit den synthetischen Medien dazu führen, dass wir sagen: Ich vertraue niemandem, bevor wir uns nicht persönlich getroffen haben - und damit den Wunsch der Menschen, sich persönlich zu treffen, deutlich erhöhen? Das wäre ziemlich cool.

Es ist eine interessante Konsequenz, wenn sie in die andere Richtung, in die reale Welt, drängt.

Richtig, wenn das Aufkommen der KI bedeutet, dass alles, was online ist, als Fiktion angesehen wird. Schauen Sie in einem Jahrzehnt wieder vorbei.

--

Was denken Sie über die Zukunft der KI? Erzählen Sie uns, wie Ihr Unternehmen die KI einsetzt: hello@vivaldigroup.com