banner edicion impresa

Monitor Software


Creador de OpenAI advierte sobre sus riesgos a futuro

Creador de OpenAI advierte sobre sus riesgos a futuro
Sam Altman.

Publicación:20-05-2023
++--

Durante su comparecencia ante el Senado de Estados Unidos, Sam Altman, director ejecutivo de OpenAI, hizo hincapié en la importancia de regular la IA.

Durante su comparecencia ante el Senado de Estados Unidos, Sam Altman, director ejecutivo de OpenAI, hizo hincapié en la importancia de regular la inteligencia artificial (IA), advirtiendo sobre los posibles riesgos de su mal uso. Altman, cuya compañía ha destacado con su chatbot ChatGPT, hizo referencia a tres puntos clave que deberían abordarse en futuras regulaciones.

El primero es la creación de una agencia gubernamental encargada de otorgar y revocar licencias para soluciones generativas de contenido. Altman enfatizó la necesidad de establecer medidas de seguridad para evitar que las máquinas con IA tengan capacidades maliciosas. Además, propuso la obligación de someter cualquier programa de IA a una auditoría realizada por expertos independientes antes de su lanzamiento.

Si bien Altman abordó estos aspectos, evitó mencionar durante su comparecencia un tema espinoso relacionado con la IA generativa: el entrenamiento de la máquina y el uso de los datos proporcionados por los usuarios. La Unión Europea (UE) ya está tomando medidas para garantizar una mayor transparencia en el entrenamiento de las máquinas desarrolladas por empresas como OpenAI, Microsoft y Google, todas ellas dedicadas al desarrollo de soluciones de IA similares.

La UE compartió recientemente un borrador de la futura Ley de inteligencia artificial, que se espera que sea aprobada antes de finales de 2023. El borrador establece que las empresas que desarrollan herramientas como ChatGPT deben diseñar modelos que eviten generar contenido ilegal y publicar resúmenes de datos protegidos por derechos de autor utilizados para el entrenamiento.

Además, las empresas serán responsables de garantizar que sus sistemas de IA no utilicen datos de terceros sin autorización, lo cual ha sido motivo de preocupación y controversia. Un caso destacado fue el uso del trabajo del dibujante de cómics español Pepe Larraz para entrenar una IA, lo cual despertó inquietudes sobre los derechos de autor. Según los planes de la UE, las empresas que utilicen el trabajo de otros deberán compensar económicamente a los propietarios.

La opacidad de OpenAI en cuanto al entrenamiento de su máquina fue uno de los motivos por los que Italia prohibió ChatGPT en marzo de este año. La empresa también ha sido objeto de escrutinio por parte de las agencias de privacidad de la UE. Estas acciones regulatorias han llevado a Google a no lanzar su herramienta similar a ChatGPT, llamada Bard, en territorio europeo.

Otro tema preocupante para expertos y legisladores es la posibilidad de que los entrenadores humanos de ChatGPT tengan acceso a datos de los usuarios, incluyendo información sensible. Incluso empresas como Samsung han prohibido a sus empleados utilizar este sistema como herramienta de trabajo. Ante esta preocupación, OpenAI está desarrollando opciones adicionales de pago para garantizar la confidencialidad de los datos introducidos en la máquina.



« Especial »