El objeto de la Civil Investigative Demand iniciada es averiguar si, al ofertar o poner a disposición del público productos y servicios que incorporan, utilizan o se basan en grandes modelos de lenguaje, OpenAI ha incurrido en prácticas desleales o engañosas en materia de privacidad o seguridad de datos, o en prácticas desleales o engañosas en relación con los riesgos de daño a los consumidores, incluido un daño a su reputación.
Carlos B Fernández. La Comisión Federal de Comercio de los Estados Unidos ha abierto una amplia investigación (a Civil Investigative Demand) sobre OpenAI, para averiguar si el fabricante del famoso ChatGPT ha infringido las leyes de protección de los consumidores del país, al poner en riesgo la reputación y los datos personales de sus ciudadanos. La investigación, se centra principalmente en posibles abusos contra la protección de los consumidores, pero también pide a OpenAI que facilite algunos detalles sobre cómo licencia sus modelos a otras empresas.
Según informa Cat Zakrzewski en The Washington Post, esta agencia independiente del gobierno de los Estados Unidos dedicada a promover los derechos de los consumidores y prevenir prácticas contrarias a la libre competencia, envió la semana pasada un escrito de 20 páginas a la empresa que preside Sam Altman, solicitándole información sobre cómo aborda los riesgos relacionados con sus modelos de IA.
En concreto, el objeto de la investigación es averiguar si OpenAI, al ofertar o poner a disposición del público de productos y servicios que incorporan, utilizan o se basan en grandes modelos de lenguaje (Large Language Model, LLM), 1) ha incurrido en prácticas desleales o engañosas en materia de privacidad o seguridad de datos, o 2) ha incurrido en prácticas desleales o engañosas en relación con los riesgos de daño a los consumidores, incluido el daño a la reputación.
Para ello, plantea a OpenAI 49 preguntas, varias de ellas con varios subniveles, sobre todos los aspectos relevantes de su actividad. Entre ellos, los estados en los que desarrolla su actividad; sus empresas asociadas, filiales y subsidiarias; la relación de empleados y cargos directivos, incluyendo la distribución interna de responsabilidad entre los mismos; las cifras económicas; su modelo de gobernanza; las páginas web o apps de los que es titular; una amplia descripción de cada LLM comercializado por la empresa, incluyendo su nombre, precio, destinatarios, funcionalidad, forma de acceso al mismo y número de usuarios; los métodos seguidos para asegurar la comprensión, por parte de los usuarios, de las características del producto y los datos utilizados para el entrenamiento del sistema, incluyendo la forma en que se obtuvieron, las fuentes utilizadas, los criterios aplicados para seleccionar esas fuentes, los idiomas utilizados, la valoración y revisión efectuada de dichos datos, los departamentos encargados del entrenamiento y el proceso de reentrenamiento y refinado de datos aplicables.
Igualmente, la FTC pidió a OpenAI que proporcione una descripción detallada de todas las quejas que ha recibido sobre el hecho de que sus productos hacen afirmaciones «falsas, engañosas, despectivas o perjudiciales» sobre las personas. Según el documento, la FTC está investigando si la empresa incurrió en prácticas desleales o engañosas que causaron un «daño a la reputación» de los consumidores. La agencia también pidió a OpenAI que describiera cómo perfecciona sus modelos para hacer frente a su tendencia a «alucinar», inventando respuestas cuando los modelos no conocen la respuesta a una pregunta.
Del mismo modo, la FTC también pidió a la empresa que proporcionara registros relacionados con un incidente de seguridad que se reveló en marzo, cuando un fallo en sus sistemas permitió a algunos usuarios ver información relacionada con pagos, así como algunos datos del historial de chat de otros usuarios. En concreto, OpenAI deberá ofrecer detalles sobre cuántas personas se vieron afectadas por el incidente de seguridad de marzo e información sobre todas las medidas que tomó para responder. En este sentido, la FTC está investigando también si las prácticas de seguridad de datos de la empresa violan las leyes de protección de los consumidores, aunque OpenAI dijo al respecto en una entrada en su blog que el número de usuarios cuyos datos fueron revelados a otra persona era «extremadamente bajo.»
Según destaca Zakrzewski, esta investigación representa la mayor amenaza reguladora puesta en marcha hasta la fecha para el negocio de OpenAI en Estados Unidos, en un momento en que la empresa emprende una ofensiva de seducción global para dar forma al futuro de la política de inteligencia artificial.
Una empresa cuya aplicación ChatGPT ha sido calificado como la aplicación de consumo de más rápido crecimiento de la historia, cuyo lanzamiento y temprano éxito desencadenó una carrera armamentística entre las empresas de Silicon Valley para lanzar chatbots competidores. El director ejecutivo de la empresa, Sam Altman, se ha convertido en una figura influyente en el debate sobre la regulación de la IA, testificando en el Capitolio, cenando con legisladores y reuniéndose con el Presidente Biden y el Vicepresidente Harris.
La FTC avisa de que las normas sobre protección del consumidor también se aplican a la IA.
Pero ahora la empresa se enfrenta a una nueva prueba en Washington, donde la FTC ha emitido múltiples advertencias de que las leyes existentes de protección del consumidor se aplican a la IA, incluso mientras la administración y el Congreso se esfuerzan por diseñar nuevas normas al respecto, sin bien, como anunció el líder de la mayoría del Senado, el demócrata Charles E. Schumer, todavía faltan meses para que se apruebe una nueva legislación sobre IA.
Según esta informadora, la investigación de la FTC a OpenAI es el primer indicio de cómo pretende hacer cumplir esas advertencias. Si la FTC descubre que una empresa viola las leyes de protección del consumidor, puede imponer multas o someter a una empresa a un decreto de consentimiento, que puede dictar cómo maneja los datos la empresa. La FTC se ha convertido en el principal policía del gobierno federal en Silicon Valley, imponiendo cuantiosas multas a Meta, Amazon y Twitter por supuestas infracciones de las leyes de protección del consumidor.
La agencia ha advertido repetidamente en discursos, blogs, artículos de opinión y conferencias de prensa de que se van a tomar medidas contra la IA. En un discurso pronunciado en abril en la Facultad de Derecho de Harvard, Samuel Levine, director de la Oficina de Protección del Consumidor de la agencia, dijo que ésta estaba preparada para ser «ágil» a la hora de adelantarse a las amenazas emergentes.
«La FTC da la bienvenida a la innovación, pero ser innovador no es una licencia para ser imprudente», dijo Levine. «Estamos preparados para utilizar todas nuestras herramientas, incluida la aplicación de la ley, para desafiar las prácticas perjudiciales en este ámbito». La FTC también ha publicado varias entradas en su blog sobre su enfoque de la regulación de la IA, a veces invocando películas populares de ciencia ficción para advertir al sector de que no infrinja la ley. La agencia ha advertido contra las estafas de IA, el uso de IA generativa para manipular a clientes potenciales y la falsa exageración de las capacidades de los productos de IA. Khan también participó en una rueda de prensa con funcionarios de la administración Biden en abril sobre el riesgo de discriminación por IA.
«No hay ninguna exención de la IA a las leyes vigentes», dijo Khan en ese evento, añadiendo además que «es una opción falsa sugerir que o avanzamos en la innovación o protegemos a los consumidores», «Podemos hacer ambas cosas», declaró.
Fuente: IIILA LEY. Consejo General de Economistas. REAF Asesores Fiscales.