Inteligencia Artificial: Beneficios y Peligros

Share on whatsapp
Share on twitter
Share on facebook
Share on telegram
Share on linkedin
Share on email

La inteligencia artificial representa uno de los grandes avances de la tecnología en los últimos tiempos. Sin embargo, empresarios y expertos advierten sobre los posibles riesgos de su aplicación para la sociedad.  

Por Matías Fidel. 

La inteligencia artificial (IA) es el conjunto de sistemas o combinación de algoritmos, cuyo propósito es crear máquinas que imiten la inteligencia humana para realizar tareas y poder mejorar conforme la información que recopilan. Si bien el concepto de “inteligencia artificial” surgió poco tiempo después de la Segunda Guerra Mundial, el término fue utilizado por primera vez en 1956 por el informático John McCarthy durante la conferencia de Dartmouth. Según los desarrolladores de esta tecnología, la IA no se propone reemplazar a las personas sino mejorar significativamente las capacidades y contribuciones humanas.

No obstante, en la actualidad empresarios y expertos advierten sobre los posibles riesgos de la IA para la humanidad. 

BENEFICIOS Y POSIBLES PELIGROS DE LA UTILIZACIÓN DE LA INTELIGENCIA ARTIFICIAL. 

Uno de los beneficios de la aplicación de la IA es que puede servir para mejorar los sistemas de salud. 

Según Salveen Richter, analista principal del sector de biotecnología de Estados Unidos en Goldman Sachs Research, la salud es una de las industrias que puede encontrar mayores oportunidades en el desarrollo de la inteligencia artificial (IA) y el aprendizaje automático (ML). 

De acuerdo con Richter, la combinación de los vastos conjuntos de datos multimodales de la atención médica y las ventajas competitivas de AI/ML en eficiencia, personalización y efectividad están preparadas para impulsar una ola innovadora en la atención médica.

Para ejemplificar, dijo que se estima que se necesitan más de ocho años y USD 2 mil millones para desarrollar un medicamento, y la probabilidad de falla es bastante alta. La IA, incluida la IA generativa, se encuentra entre las tecnologías que tienen el potencial de crear medicamentos más seguros y eficaces y de optimizar la atención personalizada.

Otros aspectos positivos de la Inteligencia Artificial se encuentran en las áreas de la administración pública y de la educación.  

Las nuevas tecnologías vinculadas a la IA pueden mejorar la gestión pública, acelerar procesos, brindar mejores servicios y tomar decisiones de forma más eficiente. Esto se da siempre y cuando la implementación e incorporación de las mismas se haga con los cuidados necesarios. “No hay que caer en el solucionismo tecnológico”, expresó Sofía Beatriz Scasserra, directora del Observatorio de Impactos Sociales de la Inteligencia Artificial de la UNTREF y miembro del Instituto del Mundo del Trabajo Julio Godio.

En cuanto a la cuestión educativa, Lina María Ramírez, cofundadora y directora académica y de producto de Genuine Digital School, aseguró que, “no podemos ignorar el mundo en el que vivimos, ni que estamos en constante cambio, la educación de nuestros niños es primordial y la inteligencia artificial es una herramienta muy valiosa para que podamos enfrentar esos desafíos”.  

Los especialistas en educación indican que antes los profesores utilizaban libros y materiales didácticos, pero ahora, con el aporte de la IA, el conocimiento es adaptable y personalizado. 

Por otro lado, los posibles peligros de esta tecnología parecen estar relacionados con su utilización como armas militares. Hace poco tiempo un dron militar autónomo de la fuerza aérea de Estados Unidos con inteligencia artificial (IA) «asesinó» a su operador durante un ejercicio de combate después de evaluar que el oficial era un «obstáculo» para cumplir con la misión que le habían impuesto: destruir a los objetivos enemigos. Las maniobras eran simuladas y el operador no sufrió daño alguno, pero se volvió una alerta (más) sobre el riesgo de utilizar IA en las armas autónomas que las grandes potencias están desarrollando aceleradamente en estos tiempos.

Incluso, Sam Altman, CEO de Open AI, la propia firma creadora de Chat GPT, admitió la semana pasada en el Senado de EE UU que es una tecnología “que puede acabar realmente mal”. De entre los distintos sectores en los que la IA está ganando influencia destaca especialmente el de la guerra. Con la misión de hacer más eficiente la lucha en el campo de batalla, Gobiernos y empresas buscan formas de sacar partido a la tecnología sin considerar los posibles riesgos para la humanidad. 

ADVERTENCIAS DE EMPRESARIOS Y EXPERTOS SOBRE LOS ASPECTOS NEGATIVOS DE LA INTELIGENCIA ARTIFICIAL.  

Múltiples personalidades, desde empresarios hasta académicos y expertos del mundo tecnológico, advierten sobre los peligros que podría traer consigo la inteligencia artificial.

Estas advertencias se clasifican, a grandes rasgos, en dos grupos: uno que advierte sobre los peligros para la sociedad en general y otro más apocalíptico que se enfoca en el colapso de la humanidad.

Advertencias sobre las posibles peligros de la IA: 

Autoconciencia de las máquinas: 

La autoconsciencia de las máquinas pertenece al terreno de la ciencia ficción desde hace décadas, pero también es tema del campo de la IA. No obstante, como Google Cloud menciona en su sitio web, este nivel en el que un sistema sería consciente de su propia existencia es algo que no existe hasta la fecha.

Pausa de seis meses: 

Febrero de 2023 debe quedar en el calendario histórico de la tecnología, fue el mes en que la inteligencia artificial comenzó su masificación y nombres como Chat GPT, OpenAL, Bard o Bing se popularizaron.

Desde entonces, la IA ha escalado de forma abrupta, a tal punto que desencadenó una de las advertencias más amplias hasta la fecha.

Profesores, investigadores y líderes del mundo de la tecnología, entre ellos Elon Musk, pidieron en marzo que los laboratorios de inteligencia artificial (IA) detengan el entrenamiento de los sistemas de IA más poderosos durante al menos seis meses, citando “riesgos profundos para la sociedad y la humanidad”.

Elon Musk advierte que la IA podría causar la “destrucción de la civilización”, aunque invierte en ella

Por medio de una carta, que fue publicada por Future of Life Institute, una organización sin fines de lucro respaldada por Musk, los firmantes dijeron que la pausa debería aplicarse a los sistemas de IA “más poderosos que GPT-4”, que es la versión más actual y poderosa de Chat GPT.

También dijeron que los expertos independientes deberían usar la pausa propuesta para desarrollar e implementar conjuntamente un conjunto de protocolos compartidos para herramientas de IA que sean seguras “más allá de toda duda razonable”.

Cambios inevitables en el mundo laboral: 

Más que una alarma apocalíptica, esta advertencia se centra en el grupo de los riesgos de la sociedad, plantea un escenario inevitable: el mundo laboral se va a transformar y no hay vuelta atrás, por lo que las instituciones y la población deben estar preparadas en conjunto para ello.

En marzo, economistas de Goldman Sachs señalaron que hasta 300 millones de empleos de tiempo completo en todo el mundo podrían automatizarse de alguna manera con la nueva ola de inteligencia artificial.

Se espera que los trabajadores administrativos y los abogados sean los más afectados, dijeron los economistas, en comparación con el “poco efecto” que la IA tendrá en las ocupaciones físicas o al aire libre, como los trabajos de construcción y reparaciones en general.

Si bien los lugares de trabajo pueden cambiar, la adopción generalizada de la IA podría, en última instancia, aumentar la productividad laboral y aumentar el PIB mundial en un 7% anual durante un periodo de 10 años, según Goldman Sachs.

Por su parte, el Foro Económico Mundial (WEF por sus siglas en inglés) indicó en un informe publicado este mes que empresas de todo el mundo esperan una pérdida neta de 14 millones de empleos en los próximos cinco años, esto a medida que se debilita la economía y se impulsa a las tecnologías de IA.

Muchos factores alimentarán la agitación del mercado laboral durante el periodo señalado por el WEF. El cambio a sistemas de energía renovable será un motor poderoso para generar empleos, mientras que un crecimiento económico más lento y una inflación alta generarán pérdidas. Asimismo, la prisa por implementar sistemas de inteligencia artificial servirá como una fuerza tanto positiva como negativa.

Prohibiciones y oportunidades: 

Algunas advertencias, que se mueven en los terrenos de ambos grupos mencionados han acabado en prohibiciones y también en llamados a realizar cambios.

Por ejemplo, en marzo el Gobierno de Italia hizo sonar las alarmas respecto a ChatGPT por una preocupación respecto a una posible violación de la protección de datos. Esto llevó a la administración a bloquear el acceso a la herramienta de OpenAI hasta que se respete la regulación prevista.

También en este sentido, recientemente Samsung prohibió de manera temporal el uso de inteligencia artificial generativa en los dispositivos de la empresa.

La decisión se tomó después de que su personal usó IA generativa, como Chat GPT, en el dispositivo de su empresa a principios de abril, lo que provocó preocupaciones de seguridad, dijo un vocero de Samsung. La empresa realizó una encuesta al respecto, en la que el 65% de los encuestados estuvo de acuerdo en que el uso de dicha tecnología representa un riesgo para la seguridad.

Pero, así como hay prohibiciones, hay advertencias que abren paso a las oportunidades.

En el premio del concurso de fotografía Sony World Photography Award tras revelar que la obra que presentó, llamada “Pseudomnesia: The Electrician”, había sido generada por inteligencia artificial.

Los organizadores del concurso afirmaron que sabían que había algo de inteligencia artificial involucrada, pero señalaron que hubo un intento “deliberado” por engañarlos. Eldagsen dijo que esperaba que sus acciones abrieran la conversación en torno a este asunto y llevaran a “concursos separados para imágenes generadas por IA”.

“Las imágenes de inteligencia artificial y la fotografía no deberían competir entre sí en un premio como este. Son ámbitos diferentes. La inteligencia artificial no es fotografía. Por lo tanto, no aceptaré el premio”, agregó.

La advertencia del “padrino de la IA”: 

Geoffrey Hinton, considerado el “padrino de la inteligencia artificial”, confirmó que dejó su puesto en Google para alertar sobre los “peligros” de la tecnología que él mismo ayudó a desarrollar.

El trabajo pionero de Hinton sobre redes neuronales dio forma a los sistemas de inteligencia artificial que impulsan muchos de los productos actuales.

Hinton dijo que renunció a Google para poder hablar libremente sobre los peligros de la inteligencia artificial, más que por un deseo de criticar específicamente a Google.

En una entrevista con The New York Times, Hinton se sumó a las preocupaciones sobre el potencial de la inteligencia artificial para eliminar puestos de trabajo y crear un mundo en el que muchos “ya no serán capaces de saber qué es verdad”. También señaló el asombroso ritmo de avance, mucho más allá de lo que él y otros habían previsto.

“La idea de que estas cosas pudieran llegar a ser más inteligentes que las personas, unos pocos lo creían”, dijo Hinton en la entrevista. “Pero la mayoría pensaba que no era así. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso”.

En conversación con Jake Tapper de CNN, Hinton señaló que si la inteligencia artificial “llega a ser mucho más inteligente que nosotros, será muy buena manipulando porque lo habrá aprendido de nosotros”.

Hinton le dijo a CNN que no tiene claro cómo resolver el problema en este momento y que la solución es algo para lo cual hay que trabajar, teniendo en cuenta, además, que el desarrollo de esta tecnología no se puede detener: “No creo que podamos detener el progreso. No firmé la petición diciendo que deberíamos dejar de trabajar en IA porque si la gente en Estados Unidos se detuviera, la gente en China no lo haría”.

En momentos de grandes avances tecnológicos pero también de potenciales peligros para la humanidad, es necesario mensurar las implicaciones políticas, sociales y éticas de la aplicación de la IA en un contexto de ausencia de legislación internacional y controles independientes.

 

 

Te puede interesar
Cargando...