Blog

Trabajar con IA: entrevista con Jeff Hancock, de Stanford

Vivaldi Trabajo con IA

Desde que ChatGPT debutó en noviembre de 2022, se han suscitado muchas conversaciones en nuestras oficinas y en todo el mundo en torno al papel de la inteligencia artificial (IA), desde cómo la utilizamos hasta para qué la utilizamos, pasando por cómo remodelará nuestro trabajo y nuestra vida cotidiana.

El 14 de marzo de 2023, OpenAI lanzó GPT-4, una nueva versión de la tecnología de procesamiento del lenguaje natural, que tiene la capacidad de manejar imágenes además de texto -aunque por el momento solo está disponible para suscriptores de pago-. Este sistema avanzado tiene capacidades aún más amplias y una mayor precisión, y la empresa informó de que obtuvo una puntuación en el percentil 90 en el examen de acceso a la abogacía.

Como las piezas tecnológicas cambian rápidamente, Vivaldi habló con Jeff Hancockdirector fundador del Stanford Social Media Lab y catedrático de Comunicación Harry y Norman Chandler de la Universidad de Stanford, para conocer la evolución de la inteligencia artificial y cómo puede utilizarse, para bien o para mal.

--

Vivaldi: Actualmente hay muchas noticias sobre ChatGPT y se especula sobre el futuro. ¿Cómo ha cambiado ya la IA en los últimos años algunas de nuestras formas de trabajar o interactuar?

Jeff Hancock: El corrector ortográfico salió del laboratorio de IA de Stanford en los años 80. Nadie piensa que el corrector ortográfico sea una IA interesante, pero cambió nuestra forma de trabajar. Autocompletar, autocorregir... estas cosas cambiaron nuestra forma de comunicarnos.

En su investigación, ha descubierto que los humanos ya no pueden distinguir entre algo escrito por un humano y algo escrito por una máquina: ¿cuáles son los peligros potenciales de esto y las oportunidades potenciales?

Creo que el principal peligro es la confianza, que estas tecnologías pueden minar la confianza en los demás, en cualquier cosa en línea, en la comunicación. En uno de nuestros trabajos anteriores vimos que, en cuanto decíamos a los participantes que algunas de las cosas que les mostrábamos podían ser IA, se volvían muy suspicaces y desconfiaban de todo.

Una forma positiva de hacerlo es que se incorpore como lo hizo el corrector ortográfico y no pensemos más en ello. Mejoramos nuestra vida laboral, somos capaces de hacer más o de hacer lo mismo en menos tiempo y podemos pasar más tiempo con nuestra familia. Creo que lo que va a importar es menos la tecnología y más lo que decimos que está bien; el contrato social y las normas sociales que determinan cuándo pueden y deben usarse estas cosas. Aún queda mucho trabajo por hacer en este sentido.

En cuanto a la confianza y la divulgación del uso de la IA, ¿existen "buenas prácticas" al respecto o están aún en fase de desarrollo?

Creo que están surgiendo buenas prácticas. No creo que se vaya a divulgar la IA cada vez que se utilice, eso sería como indicar que se ha utilizado el corrector ortográfico, pero se llegará a entender cuándo no se utilizan estas cosas. Creo que hay muchas conversaciones en la sociedad sobre cuándo se pueden usar estas cosas y cuándo no, o sobre cómo atribuirlas cuando se usan.

Cambia cada día.

Al igual que las creencias de la gente. En diciembre había mucho asombro y entusiasmo, y luego algo de miedo, como "vaya, son tan buenos que podrían quitarnos el trabajo", y ahora es como "estas cosas son una locura". Nuestras creencias sobre ellos cambian, y luego como nuestras creencias cambian, a pesar de que la tecnología no lo ha hecho, eso cambia nuestras interacciones y lo que pensamos que es razonable y ético y eficaz. Hay mucho en el lado humano que todavía estamos resolviendo.

¿Qué temores cree que son infundados y cuáles son los ámbitos que deberían preocuparnos más?

No va a ocupar el puesto de trabajo de la mayoría de la gente. Desde luego, no a corto plazo. La gente descubrirá para qué sirve realmente, que es para producir primeros borradores o editar borradores en un contexto más restringido. Te ayudará a escribir, pero no puedes depender de él. Hay que trabajar con él. Se están dando cuenta de que conectarlo con un motor de búsqueda es menos no trivial de lo que pensaban, y la precisión es importante, y no parecen funcionar súper bien. No es de extrañar. La clasificación va a ser algo que se va a utilizar mucho, pero todavía no se ha hablado mucho de ello.

Jeff Hancock, Director Fundador del Stanford Social Media Lab y Profesor Harry y Norman Chandler de Comunicación en la Universidad de Stanford

Se ha hablado mucho de la disrupción de distintas profesiones. ¿Cómo afectaría esto a un sector como el de la consultoría?

En cierto modo, la consultoría consiste en hacer buenas preguntas. Creo que la GPT es realmente fantástica para ayudar a pensar cuáles son esas preguntas. Si eres consultor, dices: "Vale, vamos a intentar entender si esta práctica, sea cual sea, es buena". Hay una manera de que GPT diga: "Bien, estos son los resultados en este contexto y esto es lo que está haciendo esta empresa". Para la empresa A y la empresa B, ¿cuál creemos que conducirá al mejor resultado? Tanto si es correcto como si no, sin duda te ayudará a pensar por qué responde de la manera en que lo hace, basándose en su enorme cantidad de conocimientos sobre el funcionamiento de las cosas. Si me dedicara a la consultoría, me encantaría empezar a utilizar esta herramienta para obtener información.

Usted también es un experto en redes sociales. Gran parte del mundo de las redes sociales y de Internet ha estado impulsado por la publicidad de pago, ¿qué podría significar esto para un sistema como ChatGPT u otros programas de IA?

Una respuesta muy corta es: no lo sé. Tomamos decisiones sobre las redes sociales que queríamos que fueran gratuitas y para ello tuvimos que recurrir a la publicidad. Esto nos llevó a todo tipo de problemas, especialmente en torno a la forma en que las redes sociales están optimizadas para el compromiso y que está demostrando ser problemático, con consecuencias imprevistas. La cuestión aquí será: ¿quién va a pagar por esto y cómo? Si no se ponen algunas de estas herramientas a disposición del público, creo que se corre el riesgo de agravar la desigualdad. Así que creo que sería preferible un modelo que permitiera a todo el mundo acceder a la mayoría de estas herramientas.

Las empresas de medios sociales cuentan con cierta protección jurídica en relación con lo que se publica en sus plataformas. Se adoptará esto también para el uso de la IA, o serán las empresas responsables si ocurre algo debido a lo que dice una IA?

En el caso de las redes sociales, las normas son bastante claras, aunque ahora hay dos desafíos a las leyes. No son responsables de la mayoría de los contenidos que se publican, tienen algunas responsabilidades y existe libertad de expresión protegida. Aquí no está claro. La empresa obtiene una amplia protección de la libertad de expresión, pero no tienen el mismo tipo de protección de la Sección 230 que las plataformas. Si se produce algo que conduce al daño - inicialmente si se le preguntó cómo cometer suicidio, que le diría. Si eso ocurre, ¿quién es el responsable? ¿Es el constructor de la IA, la persona que la utilizó para hacer eso, es la herramienta? Creo que todas estas preguntas son importantes.

¿Qué es lo que más le ilusiona que se desarrolle en el futuro?

Me interesan mucho la confianza y el bienestar, y cómo estas herramientas pueden utilizarse para mejorar en lugar de socavar. Hay un espacio enorme en el asesoramiento, el coaching y la tutoría, donde parece haber una carencia bastante grave: no tenemos suficientes asesores, coaches o mentores para las personas que los necesitan. En cuanto a la confianza, hay muchas preguntas abiertas. ¿Cuándo puedes confiar en una máquina para que te ayude? ¿Las preocupaciones en torno a los medios de comunicación sintéticos nos llevarán a decir: "No confío en nadie hasta que nos conozcamos en persona", y con ello aumentará realmente el deseo de la gente de conocerse cara a cara? Eso estaría muy bien.

Es una consecuencia interesante si empuja en la otra dirección, hacia el mundo real.

Cierto, si la llegada de la IA significa que todo lo online será visto como ficción. Vuelve dentro de una década.

--

¿Qué opina del futuro de la IA? Cuéntenos cómo utiliza su empresa la IA: hello@vivaldigroup.com