Argumentan que la carta se enfoca en riesgos especulativos y futuristas, desviando la atención de los problemas actuales que ya están afectando a las personas.
Los analistas de IA Sayash Kapoor y Arvind Narayanan han publicado un artículo titulado “Una carta abierta engañosa sobre los peligros de la IA de ciencia ficción ignora los riesgos reales”, en el que critican la carta abierta del Future of Life Institute que pide una pausa de 6 meses en el entrenamiento de modelos de lenguaje más potentes que GPT-4. Según los analistas, la carta se centra en riesgos especulativos y futuristas, desviando la atención de los problemas reales que ya están afectando a las personas.
Kapoor y Narayanan argumentan que la carta presenta tres riesgos especulativos: 1) campañas maliciosas de desinformación, 2) la obsolescencia de todos los empleos, y 3) riesgos existenciales a largo plazo. Los autores afirman que estos riesgos no son los problemas centrales actuales. En lugar de ello, señalan tres daños reales: 1) la desinformación debido al uso descuidado de las herramientas de IA, 2) la explotación laboral y el cambio de poder hacia las empresas, y 3) los riesgos de seguridad a corto plazo.
Kapoor y Narayanan sostienen que un enfoque de contención, similar al que se aplica al riesgo nuclear o al de la clonación humana, no es apropiado para la IA. En su lugar, proponen una regulación basada en la seguridad del producto y la protección del consumidor, ya que los daños y las intervenciones variarán según las aplicaciones de la IA.
Los autores concluyen que es fundamental abordar los riesgos reales de la IA en lugar de centrarse en soluciones ingenuas como las moratorias amplias, que desvían el debate serio de políticas en favor de fantasías sobre la inteligencia artificial general y resultan contraproducentes. “Es hora de elevar nuestro análisis”, escriben Kapoor y Narayanan, procediendo luego a explicar los riesgos reales:
Según los autores, estos son los riesgos reales:
Riesgo real 1: Desinformación debido al uso descuidado de las herramientas de IA
En cambio, la verdadera razón por la que las herramientas de IA suponen un peligro para la información es el exceso de confianza y el sesgo de automatización. El sesgo de automatización es la tendencia de las personas a confiar demasiado en los sistemas automatizados. Los LLM no están entrenados para generar la verdad; generan afirmaciones que suenan plausibles. Pero los usuarios podrían confiar en los LLM en casos en los que la exactitud de los hechos es importante.
“Pensemos en el hilo viral de Twitter sobre el perro que se salvó porque ChatGPT dio el diagnóstico médico correcto. En este caso, ChatGPT fue útil. Pero no oiremos hablar de la miríada de otros ejemplos en los que ChatGPT perjudicó a alguien debido a un diagnóstico incorrecto. Del mismo modo, CNET utilizó una herramienta automatizada para redactar 77 artículos de noticias con consejos financieros. Más tarde encontraron errores en 41 de los 77 artículos”.
Riesgo real 2: Las herramientas de IA explotan la mano de obra y trasladan el poder a las empresas.
Es probable que el impacto real de la IA sea más sutil: Las herramientas de IA quitarán poder a los trabajadores y lo centralizarán en manos de unas pocas empresas. Un ejemplo destacado es la IA generativa para crear arte. Las empresas que crean herramientas de conversión de texto en imágenes han utilizado el trabajo de artistas sin compensación ni reconocimiento. Otro ejemplo: a los trabajadores que filtraron contenidos tóxicos de los datos de entrada y salida de ChatGPT se les pagó menos de 2 USD/hora.
Detener el desarrollo de nueva IA no ayuda a reparar los daños de los modelos ya implantados. Una forma de hacer lo correcto por los artistas sería gravar a las empresas de IA y utilizarlo para aumentar la financiación de las artes. Desgraciadamente, no existe la voluntad política de considerar siquiera estas opciones. Intervenciones como pulsar el botón de pausa distraen la atención de estos difíciles debates políticos.
Perjuicio real 3: Riesgos de seguridad a corto plazo
La ingeniería inmediata ya ha permitido a los usuarios filtrar detalles confidenciales sobre casi todos los chatbot que se han lanzado hasta ahora. A medida que herramientas como ChatGPT se integran en aplicaciones del mundo real, estos riesgos de seguridad se vuelven más perjudiciales. Los asistentes personales basados en LLM podrían ser pirateados para revelar datos personales de la gente, realizar acciones dañinas en el mundo real, como apagar sistemas, o incluso dar lugar a gusanos que se propaguen por Internet a través de los LLM. Lo más importante es que estos riesgos de seguridad no requieren un salto en las capacidades de los modelos: los modelos existentes son vulnerables a ellos.
Abordar los riesgos de seguridad exigirá colaboración y cooperación con el mundo académico. Por desgracia, el bombo y platillo de esta carta -la exageración de las capacidades y el riesgo existencial- probablemente hará que los modelos se bloqueen aún más, lo que dificultará abordar los riesgos.
Los autores sostienen que la carta abierta sitúa el riesgo de la IA en un plano análogo al del riesgo nuclear o el de la clonación humana. Aboga por detener las herramientas de IA porque otras tecnologías catastróficas ya se han detenido antes. Pero es poco probable que un enfoque de contención sea eficaz para la IA. Los LLM son órdenes de magnitud más baratos de construir que las armas nucleares o la clonación, y su coste está bajando rápidamente. Y los conocimientos técnicos necesarios para construirlos ya están muy extendidos.
“Aunque la comunidad técnica no lo sabe muy bien, en los últimos seis meses se ha producido un cambio radical en la investigación y comercialización de los LLM. El aumento del tamaño de los modelos ya no es el motor principal del incremento de su utilidad y capacidad. La acción se ha desplazado hacia el encadenamiento y la conexión de los LLM con el mundo real. Tanto las nuevas capacidades como los riesgos surgirán principalmente de las miles de aplicaciones en las que se están integrando los LLM en este momento, y de los plugins que se están integrando en ChatGPT y otros chatbots”, escriben Sayash Kapoor y Arvind Narayanan en Substack.
Fuente: Diario TI