Cultural Más Cultural
Académico explica criterios para desarrollo ético de lA
Publicación:29-08-2023
TEMA: #Cultura
Señaló que la IA "debe mantenerse como instrumento al servicio del ser humano y del bien común"
CIUDAD DE MÉXICO.- La Inteligencia Artificial (IA
) ha sido la protagonista de múltiples discusiones, pues mientras algunos la consideran como una herramienta que beneficiará a la sociedad en el futuro, otros piensan que podría llegar a provocar diferentes problemas si no se controla su desarrollo.
De hecho, personajes como Elon Musk y Stephen Hawking han pedido en múltiples ocasiones que esta se regule debido a los peligros que podría generar.
Otros expertos se han sumado a emitir su opinión al respecto, tal es el caso del Dr. José Sols Lucia, académico del Departamento de Ciencias Religiosas en la Universidad Iberoamericana, quien señaló que la IA "debe mantenerse como instrumento al servicio del ser humano y del bien común", señaló a través del portal de la IBERO.
La Inteligencia Artificial es una herramienta que se ha desarrollado muy rápido e investigadores de diferentes áreas la han tomado para crear técnicas en "pro" de la sociedad. Sin embargo, son pocos los que se detienen a pensar si en realidad estos avances traerán beneficios para todos en general o, por el contrario, problemas.
"Una técnica puede generar desempleo y aumentar la desigualdad - porque puede ser que vayan a adquirirla los que ya tienen unas posibilidades técnicas mayores - y por tanto se aumente lo que se llama la brecha digital", indicó Sols para la IBERO.
Además, mencionó que es importante "pensar con calma qué consecuencias tendrá o qué aportará a la sociedad y al ser humano", esto derivado a que no se puede pronosticar con facilidad las consecuencias que tendrá la IA una vez que se genere algún proyecto.
En este contexto, el Dr. José Sols Lucia ha propuesto que la IA se desarrolle de una forma ética para salvaguardar la seguridad y futuro de la sociedad; "cuidar la parte humana es fundamental para el desarrollo de la IA". puntualiza
Criterios para un desarrollo ético de la Inteligencia Artificial
Para que la IA tenga un avance ético, el Dr. Sols Lucia propuso una serie de 12 criterios que se deben tomar en cuenta:
1. El tema de la IA no es binario: sí/no, para ello es necesario que se piense con cuidado sobre el tema.
2. Es importante la participación de la sociedad en el tema de la IA, ya que esta puede afectar o beneficiar a todos en general.
3. El desarrollo de la IA no debe incrementar la desigualdad social, sino que debe contribuir a una mayor igualdad social.
4. Hay que pensar en qué forma la IA puede desarrollarse sin generar más desempleo.
5. "Deberíamos buscar el modo en que la IA se implementará sin perjuicio del conocimiento humano".
6. Los robots no deben ser tratados como personas, sino como máquinas, sistemas informáticos o constructos técnicos.
7. El robot deberá pertenecer solamente a una persona, empresa o gobierno, quien ser hará responsable totalmente de sus actos.
8. "Los gobiernos democráticos deberán controlar con transparencia los sistemas informáticos con que se programarán los robots".
9. Debe existir una agencia mundial de IA, que logre controlar todo lo que se investiga y produce del tema.
10. Sols Lucia enlista dos líneas rojas que nunca se pueden cruzar en la IA:
a) "Sustituir la dignidad humana por la existencia de un robot, o tratar de equiparar a ambas".
b) "Dotar de tal autonomía a los robots que el ser humano pierda el control sobre ellos".
11. Es importante que los soldados robot siempre estén controlados.
12. "En el desarrollo de la IA habrá que ir por etapas, y al final de cada etapa habrá que evaluar exhaustivamente los resultados. No se pasará a la siguiente etapa si la valoración lenta y detallada de la anterior ha sido negativa".
De hecho, personajes como Elon Musk y Stephen Hawking han pedido en múltiples ocasiones que esta se regule debido a los peligros que podría generar.
Otros expertos se han sumado a emitir su opinión al respecto, tal es el caso del Dr. José Sols Lucia, académico del Departamento de Ciencias Religiosas en la Universidad Iberoamericana, quien señaló que la IA "debe mantenerse como instrumento al servicio del ser humano y del bien común", señaló a través del portal de la IBERO.
La Inteligencia Artificial es una herramienta que se ha desarrollado muy rápido e investigadores de diferentes áreas la han tomado para crear técnicas en "pro" de la sociedad. Sin embargo, son pocos los que se detienen a pensar si en realidad estos avances traerán beneficios para todos en general o, por el contrario, problemas.
"Una técnica puede generar desempleo y aumentar la desigualdad - porque puede ser que vayan a adquirirla los que ya tienen unas posibilidades técnicas mayores - y por tanto se aumente lo que se llama la brecha digital", indicó Sols para la IBERO.
Además, mencionó que es importante "pensar con calma qué consecuencias tendrá o qué aportará a la sociedad y al ser humano", esto derivado a que no se puede pronosticar con facilidad las consecuencias que tendrá la IA una vez que se genere algún proyecto.
En este contexto, el Dr. José Sols Lucia ha propuesto que la IA se desarrolle de una forma ética para salvaguardar la seguridad y futuro de la sociedad; "cuidar la parte humana es fundamental para el desarrollo de la IA". puntualiza
Criterios para un desarrollo ético de la Inteligencia Artificial
Para que la IA tenga un avance ético, el Dr. Sols Lucia propuso una serie de 12 criterios que se deben tomar en cuenta:
1. El tema de la IA no es binario: sí/no, para ello es necesario que se piense con cuidado sobre el tema.
2. Es importante la participación de la sociedad en el tema de la IA, ya que esta puede afectar o beneficiar a todos en general.
3. El desarrollo de la IA no debe incrementar la desigualdad social, sino que debe contribuir a una mayor igualdad social.
4. Hay que pensar en qué forma la IA puede desarrollarse sin generar más desempleo.
5. "Deberíamos buscar el modo en que la IA se implementará sin perjuicio del conocimiento humano".
6. Los robots no deben ser tratados como personas, sino como máquinas, sistemas informáticos o constructos técnicos.
7. El robot deberá pertenecer solamente a una persona, empresa o gobierno, quien ser hará responsable totalmente de sus actos.
8. "Los gobiernos democráticos deberán controlar con transparencia los sistemas informáticos con que se programarán los robots".
9. Debe existir una agencia mundial de IA, que logre controlar todo lo que se investiga y produce del tema.
10. Sols Lucia enlista dos líneas rojas que nunca se pueden cruzar en la IA:
a) "Sustituir la dignidad humana por la existencia de un robot, o tratar de equiparar a ambas".
b) "Dotar de tal autonomía a los robots que el ser humano pierda el control sobre ellos".
11. Es importante que los soldados robot siempre estén controlados.
12. "En el desarrollo de la IA habrá que ir por etapas, y al final de cada etapa habrá que evaluar exhaustivamente los resultados. No se pasará a la siguiente etapa si la valoración lenta y detallada de la anterior ha sido negativa".
« El Universal »
Te podria interesar
Otras Noticias