Philosophie

Travailler avec l'IA : un entretien avec Jeff Hancock de Stanford

Vivaldi Travail sur l'IA

Depuis le lancement de ChatGPT en novembre 2022, de nombreuses conversations ont eu lieu dans nos bureaux et dans le monde entier sur le rôle de l'intelligence artificielle (IA), qu'il s'agisse de la manière dont nous l'utilisons, de son utilité ou de la manière dont elle va remodeler notre travail et notre vie quotidienne.

Le 14 mars 2023, OpenAI a publié GPT-4, une nouvelle version de la technologie de traitement du langage naturel, capable de traiter des images aussi bien que du texte - bien que cela ne soit actuellement disponible que pour les abonnés payants. Ce système avancé dispose de capacités encore plus étendues et d'une précision accrue, l'entreprise indiquant qu'il a obtenu un score de 90e percentile à l'examen du barreau.

Les éléments technologiques évoluant rapidement, Vivaldi s'est entretenu avec Jeff Hancockdirecteur fondateur du Stanford Social Media Lab et professeur de communication Harry et Norman Chandler à l'université de Stanford, pour avoir un aperçu de l'évolution continue de l'IA et de la manière dont elle peut être utilisée - pour le meilleur et pour le pire.

--

Vivaldi: Il y a actuellement beaucoup d'informations sur ChatGPT et de spéculations sur l'avenir. Comment, au cours des dernières années, l'IA a-t-elle déjà changé certaines de nos façons de travailler ou d'interagir ?

Jeff Hancock : Le correcteur orthographique est issu du laboratoire d'intelligence artificielle de Stanford dans les années 80. Aujourd'hui, personne ne considère le correcteur orthographique comme un outil d'intelligence artificielle intéressant, mais il a changé notre façon de travailler. L'autocomplétion, l'autocorrection - ces choses ont changé la façon dont nous communiquons les uns avec les autres.

Dans le cadre de vos recherches, vous avez découvert que les humains ne peuvent plus faire la différence entre un texte écrit par un humain et un texte écrit par une machine. Quels sont les dangers potentiels de cette situation et quelles sont les opportunités potentielles ?

Je pense que le principal danger concerne la confiance : ces technologies peuvent miner la confiance des uns envers les autres, envers tout ce qui est en ligne, envers la communication. Dans l'un de nos précédents articles, nous avons constaté que dès que nous disions aux participants que certaines des choses que nous leur montrions pouvaient être de l'IA, ils devenaient vraiment méfiants et se méfiaient de tout.

Une façon positive de procéder est de l'incorporer, comme l'a fait le correcteur orthographique, et de ne plus y penser. Nous améliorons notre vie professionnelle, nous sommes capables d'en faire plus, ou de faire la même chose en beaucoup moins de temps, et nous pouvons passer plus de temps avec notre famille. Je pense que ce qui va compter, c'est moins la technologie que ce que nous jugeons acceptable, le contrat social et les normes sociales qui déterminent quand ces choses peuvent et doivent être utilisées. Il y a encore beaucoup de travail à faire dans ce domaine.

En ce qui concerne la confiance et la divulgation de l'utilisation de l'IA, existe-t-il des "meilleures pratiques" en la matière ou est-ce encore en cours d'élaboration ?

Je pense que les meilleures pratiques sont en train d'émerger. Je ne pense pas que l'IA sera divulguée chaque fois qu'elle est utilisée, cela reviendrait à indiquer que le correcteur orthographique a été utilisé, mais on finira par comprendre quand ces choses ne sont pas utilisées. Je pense qu'il y a beaucoup de discussions dans la société sur le moment où ces choses peuvent ou ne peuvent pas être utilisées ou sur la manière de les attribuer lorsqu'elles le sont.

La situation évolue chaque jour.

Il en va de même pour les croyances des gens. En décembre, il y avait beaucoup d'émerveillement et d'excitation, puis il y a eu une certaine crainte, comme "wow, ils sont si bons, ils pourraient prendre nos emplois", et maintenant c'est comme si ces choses étaient un peu folles. Nos croyances à leur sujet changent, et à mesure que nos croyances changent, même si la technologie n'a pas changé, cela modifie nos interactions et ce que nous pensons être raisonnable, éthique et efficace. Il y a beaucoup d'aspects humains que nous sommes encore en train d'étudier.

Quelles sont les craintes qui, selon vous, ne sont pas fondées et quels sont les domaines qui devraient nous préoccuper davantage ?

Elle ne va pas remplacer le travail de la plupart des gens. Certainement pas à court terme. Les gens découvriront ce à quoi il sert vraiment, à savoir produire des premières ébauches ou éditer des ébauches dans un contexte plus contraignant. Il vous aidera à écrire, mais vous ne pouvez pas compter sur lui. Il faut travailler avec. Ils découvrent que la connexion avec un moteur de recherche est moins compliquée qu'ils ne le pensaient, que la précision est importante et qu'ils n'ont pas l'air de très bien fonctionner. Ce n'est pas surprenant. La classification sera très utilisée, mais on n'en a pas encore beaucoup parlé.

Jeff Hancock, directeur fondateur du Stanford Social Media Lab et professeur de communication Harry et Norman Chandler à l'université de Stanford

On parle beaucoup de la perturbation des différentes professions. Comment un secteur comme celui du conseil pourrait-il être perturbé par ce phénomène ?

D'une certaine manière, la consultation consiste à poser de très bonnes questions. Je pense que GPT est très utile pour aider à définir ces questions. En tant que consultant, vous dites : "D'accord, essayons de comprendre si cette pratique, quelle qu'elle soit, est bonne". Le GPT permet de dire : "Voici quels sont les résultats dans ce contexte et voici ce que fait cette entreprise". Pour l'entreprise A et l'entreprise B, quelle est celle qui, selon nous, aboutira au meilleur résultat ? Que ce soit juste ou non, cela vous aidera certainement à comprendre pourquoi l'entreprise répond comme elle le fait, en se basant sur son énorme quantité de connaissances sur la façon dont les choses fonctionnent. Si je travaillais dans le domaine du conseil, je serais ravi de commencer à utiliser cet outil pour mieux comprendre les choses.

Vous avez également une grande expertise des médias sociaux. Une grande partie du monde en ligne et des médias sociaux a été alimentée par la publicité payante - qu'est-ce que cela pourrait signifier pour un système comme ChatGPT ou d'autres programmes d'IA ?

La réponse la plus courte est : je ne sais pas. Nous avons pris des décisions concernant les médias sociaux, où nous voulions qu'ils soient gratuits, et pour ce faire, nous avons dû utiliser la publicité. Cela a entraîné toutes sortes de problèmes, en particulier sur la façon dont les médias sociaux sont optimisés pour l'engagement, et cela s'est avéré problématique, avec des conséquences inattendues. La question qui se pose ici est de savoir qui va payer pour cela et comment. Si certains de ces outils ne sont pas mis à disposition gratuitement, je pense qu'il y a un risque d'aggravation des inégalités. Je pense donc qu'il serait préférable d'adopter un modèle qui permette à tout le monde d'accéder à la plupart de ces outils, en espérant qu'il ne s'agisse pas d'une publicité par défaut.

Les entreprises de médias sociaux bénéficient de certaines protections juridiques en ce qui concerne ce qui est publié sur leurs plateformes. Cette protection sera-t-elle également adoptée pour l'utilisation de l'IA, ou les entreprises seront-elles tenues pour responsables si quelque chose se produit en raison des propos tenus par l'IA ?

Avec les médias sociaux, les règles sont en fait assez claires, même si les lois sont aujourd'hui contestées à deux reprises. Ils ne sont pas responsables de la plupart des contenus publiés, ils ont certaines responsabilités et la liberté d'expression est protégée. Ici, ce n'est pas clair. L'entreprise bénéficie d'une protection générale de la liberté d'expression, mais elle ne bénéficie pas du même type de protection que les plateformes au titre de l'article 230. Si elle produit quelque chose qui entraîne un préjudice - initialement, si vous demandiez comment vous suicider, elle vous le dirait. Si cela se produit, qui est responsable ? Est-ce le concepteur de l'IA, la personne qui l'a utilisée à cette fin, l'outil ? Je pense qu'il s'agit là de questions importantes.

Qu'avez-vous le plus hâte de voir se développer à l'avenir ?

Je m'intéresse beaucoup à la confiance et au bien-être, et à la manière dont ces outils peuvent être utilisés pour améliorer la situation au lieu de la compromettre. Les domaines du conseil, du coaching et du mentorat sont très vastes et semblent souffrir d'une grave pénurie : nous n'avons pas assez de conseillers, de coachs ou de mentors pour les personnes qui en ont besoin. En ce qui concerne la confiance, il y a tellement de questions en suspens. Quand peut-on faire confiance à une machine pour nous aider ? Les inquiétudes suscitées par les médias synthétiques nous amèneront-elles à dire : "Je ne fais confiance à personne tant que nous ne nous sommes pas rencontrés en personne", ce qui aurait pour effet d'augmenter le nombre de personnes souhaitant se rencontrer en personne ? Ce serait vraiment génial.

C'est une conséquence intéressante si elle va dans l'autre sens, dans le monde réel.

Oui, si l'avènement de l'IA signifie que tout ce qui est en ligne sera considéré comme de la fiction. Rendez-vous dans dix ans.

--

Que pensez-vous de l'avenir de l'IA ? Dites-nous comment votre entreprise utilise l'IA : hello@vivaldigroup.com