La crisis de Grok por el ‘genocidio blanco’ pone en evidencia los peligros reales de la feroz competencia en IA ...Middle East

News by : (News channel) -

Análisis por Allison Morrow, CNN

Ha pasado un año entero desde que la herramienta de resumen de IA de Google se hizo viral por animar a la gente a comer pegamento y poner piedras en la pizza. En aquel momento, la atmósfera en torno a la cobertura parecía ser: “¡Vaya, esa tonta IA está alucinando otra vez!”.

Un año después, los ingenieros de IA han resuelto los problemas de alucinaciones y han acercado al mundo a su visión utópica de una sociedad cuyas asperezas se están suavizando gracias a los avances en el aprendizaje automático a medida que los humanos de todo el planeta se unen para…

Es broma. Ahora es mucho peor.

Los problemas que plantean los grandes modelos de lenguaje son tan obvios como lo fueron el año pasado, y el anterior, y el anterior. Pero los diseñadores de productos, con el respaldo de inversores ambiciosos, han estado ocupados buscando nuevas maneras de integrar la tecnología en más ámbitos de nuestra experiencia en línea, por lo que estamos encontrando todo tipo de nuevos puntos de presión, y rara vez son tan divertidos o absurdos como el fallo técnico de Google de las piedras en la pizza.

Tomemos como ejemplo a Grok, el modelo de IA de la red social X que se está volviendo casi tan plagado de teorías conspirativas como su creador, Elon Musk.

La semana pasada, el bot se convirtió en un teórico conspirativo compulsivo del “genocidio blanco” sudafricano, inyectando una diatriba sobre la violencia contra los afrikáneres en conversaciones no relacionadas, como la de un compañero de habitación que acaba de empezar a hacer CrossFit o la de un tío que te pregunta si has oído recomendaciones sobre Bitcoin.

La red social X atribuyó los desvaríos indeseados de Grok a un “empleado deshonesto” anónimo que manipulaba el código de Grok a altas horas de la madrugada. (Como acotación al margen, en un asunto sin relación, Musk nació y creció en Sudáfrica y ha argumentado que se cometió un “genocidio blanco” en el país, pero no fue así).

Grok también cuestionó la conclusión del Departamento de Justicia que dictaminó que la muerte de Jeffrey Epstein fue un suicidio por ahorcamiento, alegando que los “informes oficiales carecen de transparencia”. El bot de la red social de Musk también incursionó en la negación del Holocausto la semana pasada, como informa Miles Klee de la revista Rolling Stone. Grok declaró en X que era “escéptico” ante la estimación consensuada entre los historiadores de que 6 millones de judíos fueron asesinados por los nazis en la Segunda Guerra Mundial porque “las cifras pueden manipularse con fines políticos”.

¿Manipulado, dices? ¿Qué? ¿Para que alguien con malas intenciones pudiera introducir sus propias opiniones en un conjunto de datos para promover una narrativa falsa? Vaya, Grok, eso sí que parece un riesgo real. (La ironía es que Musk, a quien no le gustan los medios tradicionales, ha creado una máquina que realiza exactamente el tipo de amplificación de sesgos e impulso de agenda que acusa a los periodistas de hacer).

El colapso de Grok pone de relieve algunos de los problemas fundamentales en el corazón del desarrollo de la IA, que las empresas tecnológicas han tratado de resolver con parloteo cada vez que se les presiona sobre cuestiones de seguridad. (La semana pasada, CNBC publicó un informe que cita a más de una decena de profesionales de la IA que afirman que la industria ya ha superado las fases de investigación y pruebas de seguridad y está decidida a lanzar más productos de IA al mercado lo antes posible).

Olvidemos, por un momento, que hasta ahora cada intento forzado de poner chatbots de IA en nuestra tecnología existente ha sido un desastre, porque incluso los casos de uso básicos para la tecnología son muy aburridos (como tener un bot que resuma tus mensajes de texto, de manera deficiente) o extremadamente poco confiables (como tener un bot que resuma tus mensajes de texto, de manera deficiente).

En primer lugar, está el problema de “basura que entra, basura que sale”, del que los escépticos llevan mucho tiempo advirtiendo. Grandes modelos de lenguaje como Grok y ChatGPT se entrenan con datos extraídos indiscriminadamente de internet, con todos sus defectos y su humanidad desordenada incorporada.

Esto es un problema porque incluso cuando algunos CEO con apariencia agradable aparecen en televisión y dicen que sus productos solo buscan ayudar a la humanidad a prosperar, ignoran que tienden a amplificar los sesgos de los ingenieros y diseñadores que los crearon, y no existen mecanismos internos integrados en los productos para garantizar que sirvan a los usuarios, en lugar de a sus dueños. (El sesgo humano es un problema bien conocido que los periodistas han protegido durante décadas en las noticias mediante la creación de procesos transparentes en torno a la edición y la verificación de datos).

Pero, ¿qué pasa cuando se crea un bot sin las mejores intenciones? ¿Qué pasa si alguien quiere crear un bot para promover una ideología religiosa o política, y ese alguien es más sofisticado que el “empleado truhán” que alteró la IA de X la semana pasada?

“Tarde o temprano, las personas influyentes usarán los LLM para moldear tus ideas”, escribió el investigador de IA Gary Marcus en una publicación de Substack sobre Grok la semana pasada. “¿Deberíamos preocuparnos? ¡Claro que sí!”.

The-CNN-Wire™ & © 2025 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.

La crisis de Grok por el ‘genocidio blanco’ pone en evidencia los peligros reales de la feroz competencia en IA News Channel 3-12.

Read More Details
Finally We wish PressBee provided you with enough information of ( La crisis de Grok por el ‘genocidio blanco’ pone en evidencia los peligros reales de la feroz competencia en IA )

Also on site :

Most Viewed News
جديد الاخبار