PAUSA.MX
Comparte

El director ejecutivo de OpenAI, Sam Altman, creador de la interfaz ChatGPT, que despierta pasiones y temores, dijo el martes ante un panel del Senado de Estados Unidos que regular la Inteligencia Artificial (IA) será fundamental para limitar los riesgos del uso de esta tecnología.

«Creemos que la intervención regulatoria de los gobiernos será crucial para mitigar los riesgos de modelos cada vez más potentes», estimó el empresario de 38 años, última figura surgida del Silicon Valley. «Es fundamental que la IA más potente se desarrolle con valores democráticos, lo que significa que el liderazgo de Estados Unidos es determinante», apuntó Altman al testificar ante el Subcomité Judicial del Senado sobre Privacidad, Tecnología y Derecho.

Los gobiernos de todo el mundo están bajo presión para tomar medidas después del lanzamiento en noviembre del ChatGPT, un robot conversacional que puede generar contenido similar al humano en un instante. El senador Richard Blumenthal, presidente del subcomité, pronunció su comentario de apertura sobre los peligros de la IA, escrito usando ChatGPT y leído por un software entrenado con su voz real.

«Si estuvieras escuchando desde casa, podrías haber pensado que esa voz era mía y las palabras mías, pero de hecho, esa voz no era mía», dijo. Las tecnologías de IA «ya no son fantasías de ciencia ficción, son reales y presentes», enfatizó. «Si esta tecnología sale mal, puede salir muy mal».

Te puede interesar: EU podrá eliminar la viruela del mono, dice experto sanitario de Casa Blanca

Los legisladores debatieron con Altman y otros dos expertos la necesidad de regular los sistemas informáticos que podrían «destruir literalmente nuestras vidas», en palabras del senador Lindsey Graham. El Congreso de Estados Unidos evoca regularmente la necesidad de regular internet, para proteger mejor la confidencialidad de los datos y promover una mayor competencia. Pero las divisiones políticas han bloqueado la mayoría de los proyectos de ley sobre el tema desde hace años

La llamada IA generativa, desplegada por OpenAI, Microsoft y Google —capaz de crear contenidos, textos, imágenes, sonidos o videos con solo una solicitud— ha planteado el problema de la regulación tecnológica. Muchos están preocupados por su eventual impacto en numerosas profesiones, con posibles recortes masivos de empleos, y fundamentalmente en la sociedad en su conjunto. Los senadores repasaron estas áreas, como los algoritmos sesgados y la difusión de información errónea cada vez más sofisticada.
«OpenAI se fundó con la creencia de que la inteligencia artificial tiene el potencial de mejorar casi todos los aspectos de nuestras vidas, pero también crea serios riesgos», reconoció Altman. «Uno de mis mayores temores es que nosotros, esta industria, esta tecnología, causemos un daño significativo a la sociedad», dijo. «Si esta tecnología va por el camino equivocado, puede llegar bastante lejos. (…) Y queremos trabajar con el gobierno para evitar que eso suceda».

El empresario recordó que si bien OpenAI es una empresa privada, está controlada por una organización sin fines de lucro, lo que la obliga a «trabajar para una distribución amplia de los beneficios de la IA y a maximizar la seguridad de los sistemas basados en IA». Altman ya ha expresado su apoyo al establecimiento de un marco regulatorio para la IA, preferiblemente a nivel internacional.

«No hay forma de poner a este genio en la botella. A nivel mundial, esto está explotando», dijo el senador Cory Booker, uno de los muchos legisladores con preguntas sobre la mejor manera de regular la IA durante un panel del Senado sobre los usos de la IA el martes.

La idea de crear una agencia federal despertó cierto entusiasmo, pero tendría que estar dotada de los recursos suficientes, subrayó Blumenthal. Sin embargo, Altman señaló que la regulación en sí misma no estaba exenta de riesgos.

«Sé que parece ingenuo proponer algo así, parece muy difícil» de lograr, pero «hay precedentes», aseguró, citando el ejemplo de la Agencia Internacional de Energía Atómica (OIEA). «Y no solo estoy hablando de dólares, estoy hablando de experiencia científica», dijo. «Si la industria estadounidense se queda atrás, China o algún otro país pueden avanzar más rápido», dijo.

También insistió en que cualquier medida no sofoque la investigación independiente y, en cambio, se centre en empresas dominantes como la suya.

IA amenaza el futuro de la humanidad, dice sondeo

El rápido crecimiento de la tecnología de inteligencia artificial podría poner en riesgo el futuro de la humanidad, según la mayoría de los estadunidenses encuestados en una encuesta de Reuters/Ipsos publicada el miércoles. Más de dos tercios de los están preocupados por los efectos negativos de la IA y el 61% cree que podría amenazar a la civilización.

Desde que el chatbot ChatGPT de OpenAI se convirtió en la aplicación de más rápido crecimiento de todos los tiempos, la integración generalizada de la IA en la vida cotidiana ha catapultado a la IA al frente del discurso público. ChatGPT ha iniciado una carrera armamentista de IA, con pesos pesados ​​tecnológicos como Microsoft y Google compitiendo para superar los logros de IA de los demás.

Según los datos, el 61 % de los encuestados cree que la IA plantea riesgos para la humanidad, mientras que solo el 22 % no está de acuerdo y el 17 % no está seguro. Quienes votaron por Donald Trump en 2020 expresaron mayores niveles de preocupación; El 70% de los votantes de Trump en comparación con el 60% de los votantes de Joe Biden estuvieron de acuerdo en que la IA podría amenazar a la humanidad.

En lo que respecta a las creencias religiosas, los cristianos evangélicos tenían más probabilidades de estar «muy de acuerdo» en que la IA presenta riesgos para la humanidad, con un 32% en comparación con el 24% de los cristianos no evangélicos.

«Está diciendo que una muestra tan amplia de estadounidenses se preocupa por los efectos negativos de la IA», dijo Landon Klein, director de política estadounidense del Future of Life Institute, la organización detrás de una carta abierta, firmada conjuntamente por Tesla, Elon Musk, exigiendo una pausa de seis meses en la investigación de IA. «Vemos el momento actual similar al comienzo de la era nuclear, y tenemos el beneficio de la percepción pública que es consistente con la necesidad de tomar medidas».

Si bien los estadunidenses están preocupados por la IA, el crimen y la economía ocupan un lugar más alto en la lista de problemas de mesa: el 77 % apoya el aumento de los fondos policiales para combatir el crimen y el 82 % está preocupado por el riesgo de una recesión. Aquellos en la industria dijeron que el público debería entender más los beneficios de la IA.

“Las preocupaciones son muy legítimas, pero creo que lo que falta en el diálogo en general es, en primer lugar, ¿por qué estamos haciendo esto?”. dijo Sebastian Thrun, profesor de informática en Stanford que fundó Google X. “La IA mejorará la calidad de vida de las personas y las ayudará a ser más competentes y eficientes”.

Las aplicaciones positivas de la IA, como revolucionar el descubrimiento de fármacos, no son tan visibles como ChatGPT, dijo Ion Stoica, profesor de UC Berkeley que también cofundó la empresa de IA Anyscale.

«Es posible que los estadounidenses no se den cuenta de lo omnipresente que ya es la IA en su vida diaria, tanto en el hogar como en el trabajo», dijo.

NOTICIAS CHIHUAHUA

Por AL PE

Social Media Auto Publish Powered By : XYZScripts.com