El organismo acusa a los creadores de ChatGPT de lanzar un producto potencialmente riesgoso al mercado, dado que GPT-4 aparentemente no cumple con todos los criterios en materia de seguridad y privacidad en el manejo de la información.
***
- CAIDP presenta queja ante la FTC contra OpenAI
- Aparentemente GPT-4 no cumple con estándares de seguridad y privacidad en el manejo de la información
- OpenAI lanzó GPT-4 hace varias semanas
- El reclamo viene días después de que Future of Life Institute solicitase estándares de seguridad a la industria
Informes recientemente publicados indican que, los creadores del popular ChatGPT, OpenAI, fueron reportados ante la Comisión Federal de Comercio de EE.UU. (FTC) bajo acusaciones de incurrir en prácticas comerciales engañosas e injustas.
La queja fue presentada por el Centro de IA y Política Digital (CAIDP por sus siglas en inglés), el cual acusó a OpenAI de violar al menos cinco disposiciones contempladas en la ley de la FTC, alegando principalmente que GPT-4, su producto recientemente lanzado, representa riesgos para la seguridad y privacidad, justamente por no cumplir con ciertos estándares de calidad tratándose de inteligencia artificial y sus posibles repercusiones.
Al respecto, en la queja presentada ante la FTC se lee:
Esta semana, el Centro de IA y Política Digital, junto con otros, presentará una queja ante la Comisión Federal de Comercio, solicitando una investigación de Open AI y el producto chatGPT. Creemos que la FTC tiene la autoridad para actuar en este asunto y se encuentra en una posición única como la principal agencia de protección al consumidor en los Estados Unidos para abordar este desafío emergente. Le pediremos a la FTC que establezca una moratoria sobre el lanzamiento de versiones comerciales adicionales de GPT hasta que se establezcan las medidas de seguridad adecuadas. Simultáneamente, solicitaremos a la FTC que emprenda una reglamentación para la regulación de la industria de IA generativa.
Y agregan:
Favorecemos el crecimiento y la innovación. Reconocemos una amplia gama de oportunidades y beneficios que la IA puede brindar. Pero a menos que podamos mantener el control de estos sistemas, seremos incapaces de gestionar el riesgo que resultará o los resultados catastróficos que puedan surgir. Estamos pidiendo a la FTC que “presione el botón de pausa” para que haya una oportunidad para que nuestras instituciones, nuestras leyes y nuestra sociedad se pongan al día. Necesitamos afirmar la agencia sobre las tecnologías que creamos antes de que perdamos el control.
La responsabilidad en el desarrollo de la IA
Poco antes de la queja contra OpenAI, ya la FTC venía advirtiendo a los equipos que trabajan en el desarrollo de la Inteligencia Artificial a operar con más responsabilidad, y evitar caer en malas prácticas como exagerar las capacidades de los productos, hacer afirmaciones erróneas sobre su rendimiento o prometer grandes cosas sin hacer las pruebas respectivas.
Al respecto, la FTC indicó:
Necesita conocer los riesgos y el impacto razonablemente previsibles de su producto de IA antes de ponerlo en el mercado. Si algo sale mal, tal vez falla o produce resultados sesgados, no puede simplemente culpar a un desarrollador externo de la tecnología. Y no puedes decir que no eres responsable porque esa tecnología es una ‘caja negra’ que no puedes entender o no sabías cómo probar.
Este reclamo presentado contra los creadores de ChatGPT viene a lugar pocos días después que personalidades en el mundo de la tecnología como Elon Musk, Stuart Russell y Steve Wozniak publicasen un comunicado conjunto en el cual pedían a los desarrolladores de IA parar el desarrollo de productos y servicios en este campo por al menos seis meses, esto para establecer protocolos de seguridad estandarizados que prioricen la seguridad y la ética en cierta medida.
La idea es evitar que la competencia por el desarrollo de modelos de IA lleve a la experimentación irresponsable, dado que se estarían creando mentes digitales cada vez más poderosas que nadie puede entender, predecir o controlar de manera confiable. Los expertos creen que solo debemos desarrollar sistemas de IA más potentes cuando haya la seguridad de que los efectos serán positivos y los riesgos manejables.
Artículo de Angel Di Matteo / DiarioBitcoin
Imagen de DiarioBitcoin, bajo licencia de libre uso
ADVERTENCIA: Este es un artículo de carácter informativo. DiarioBitcoin es un medio de comunicación, no promociona, respalda ni recomienda ninguna inversión en particular. Vale señalar que las inversiones en criptoactivos no están reguladas en algunos países. Pueden no ser apropiadas para inversores minoristas, pues se podría perder el monto total invertido. Consulte las leyes de su país antes de invertir.