{"id":139381,"date":"2025-03-31T20:23:10","date_gmt":"2025-04-01T01:23:10","guid":{"rendered":"https:\/\/elcuartopoder.com.mx\/nw\/?p=139381"},"modified":"2025-03-31T20:23:12","modified_gmt":"2025-04-01T01:23:12","slug":"los-sesgos-y-la-manipulacion-lideran-el-lado-oscuro-de-la-ia","status":"publish","type":"post","link":"https:\/\/elcuartopoder.com.mx\/nw\/entretenimiento\/tecnologia\/los-sesgos-y-la-manipulacion-lideran-el-lado-oscuro-de-la-ia\/","title":{"rendered":"Los sesgos y la manipulaci\u00f3n lideran el lado oscuro de la IA"},"content":{"rendered":"\n<p>La&nbsp;<strong>inteligencia artificial<\/strong>&nbsp;(IA) ya incide en m\u00faltiples \u00e1mbitos de nuestra vida cotidiana, desde el reconocimiento de voz en nuestros tel\u00e9fonos hasta el an\u00e1lisis de datos en la investigaci\u00f3n m\u00e9dica. Su avanzada tecnolog\u00eda ofrece innumerables ventajas, como la automatizaci\u00f3n de tareas, eficiencia, capacidad de procesamiento de grandes vol\u00famenes de datos y personalizaci\u00f3n de m\u00faltiples servicios.<\/p>\n\n\n\n<p>Sin embargo, a medida que se propaga, sin aparentes l\u00edmites, el uso y desarrollo de esta tecnolog\u00eda, se vislumbra un lado no tan positivo derivado de las propias caracter\u00edsticas que hacen especial a la IA: la toma de decisiones y su capacidad para ejecutarlas de manera aut\u00f3noma. Cuando un ser humano toma decisiones, normalmente, la envuelve de un contexto \u00e9tico (o, al menos, tiene esa capacidad de discernir entre lo bueno y lo malo de su aplicaci\u00f3n).<\/p>\n\n\n\n<p>La IA, como software que es, carece por ahora de ese contexto. Por tanto, es importante que nosotros, las personas, acompa\u00f1emos las grandes bondades de esta tecnolog\u00eda, aplicando nuestra \u00e9tica en estos procesos en funci\u00f3n del caso.<\/p>\n\n\n\n<p>Pero veamos brevemente cu\u00e1les son algunos de los principales riesgos actuales, y por qu\u00e9 son cada vez m\u00e1s voces las que claman sobre la necesidad de una regulaci\u00f3n m\u00e1s dura frente a la, a veces, laxa \u00e9tica.<\/p>\n\n\n\n<p>\u00c9tica para m\u00e1quinas<\/p>\n\n\n\n<p>Se habl\u00f3 mucho del caso de un algoritmo de Amazon que estuvo durante un tiempo actuando de manera discriminatoria a la hora de seleccionar perfiles para un puesto de trabajo de desarrollador de software. Parece que s\u00f3lo admit\u00eda a hombres j\u00f3venes y de raza blanca, descartando autom\u00e1ticamente al resto.&nbsp;<a href=\"https:\/\/www.bbc.com\/mundo\/noticias-45823470\" rel=\"noreferrer noopener\" target=\"_blank\">Este hecho salt\u00f3 en su d\u00eda a los peri\u00f3dicos<\/a>, ensalzando la amenaza que podr\u00eda suponer el uso de IA en determinados procesos, por ejemplo la selecci\u00f3n de recursos humanos. Fue solo el principio de la consciencia de algunos de los riesgos de la IA asociados de los sesgos del algoritmo.<\/p>\n\n\n\n<p>Los sistemas de IA aprenden a partir de datos. Y si esos datos reflejan prejuicios existentes en la sociedad, existe el riesgo de perpetuar o incluso exacerbar esos sesgos, especialmente sin la supervisi\u00f3n adecuada. Esta cuesti\u00f3n se ha manifestado ya, en varias ocasiones, en sistemas de contrataci\u00f3n, cr\u00e9ditos y sistemas judiciales.<\/p>\n\n\n\n<p>En 2019, por ejemplo,&nbsp;<a href=\"https:\/\/www.latimes.com\/espanol\/eeuu\/articulo\/2019-11-11\/apple-card-sex-prejuicio-algoritmos-new-york-reguladores-goldman-sachs\" rel=\"noreferrer noopener\" target=\"_blank\">se conoci\u00f3 que el algoritmo de cr\u00e9dito de Apple Card<\/a>, gestionado por Goldman Sachs, asignaba l\u00edmites de cr\u00e9dito significativamente m\u00e1s bajos a mujeres en comparaci\u00f3n con hombres, incluso si compart\u00edan los mismos perfiles de ingresos y cr\u00e9dito.<\/p>\n\n\n\n<p>A la hora de combatir estos desaf\u00edos, la IA no es diferente a otras tecnolog\u00edas de gran impacto como lo fueron el autom\u00f3vil, en su d\u00eda, o internet. \u00c9stas tambi\u00e9n necesitaron regularse para prevenir consecuencias negativas. En este caso, y teniendo en cuenta su r\u00e1pida evoluci\u00f3n, sin duda se requiere una regulaci\u00f3n din\u00e1mica y adaptativa.<\/p>\n\n\n\n<p>Por otro lado, surge la cuesti\u00f3n de la responsabilidad en caso de errores o accidentes causados por sistemas de IA. Sin un marco legal claro, determinar qui\u00e9n es responsable puede suponer un desaf\u00edo. Un claro ejemplo es el del coche aut\u00f3nomo. \u00bfDe qui\u00e9n ser\u00eda la culpa si atropellara a un peat\u00f3n? Pese a que esta cuesti\u00f3n ha sido ya ampliamente debatida a nivel internacional, a\u00fan no existe una respuesta totalmente un\u00e1nime, m\u00e1s all\u00e1 de hablar de una \u201cresponsabilidad compartida\u201d entre la empresa que desarrolla el autom\u00f3vil (y su sofware de IA) y, por supuesto, el conductor.<\/p>\n\n\n\n<p>Regulaci\u00f3n en pa\u00f1ales<\/p>\n\n\n\n<p>En la mayor\u00eda de pa\u00edses, las leyes en materia de IA se encuentran en etapas incipientes. En Estados Unidos, por ejemplo, la normativa ha sido m\u00e1s sectorial y depende, en gran medida, de los estados individuales, aunque existen ciertos marcos federales en \u00e1reas espec\u00edficas, como la privacidad o la discriminaci\u00f3n.<\/p>\n\n\n\n<p>Desde un punto de vista global, el reto radica en equilibrar la innovaci\u00f3n con la protecci\u00f3n del ciudadano. La&nbsp;<a href=\"https:\/\/espanadigital.gob.es\/lineas-de-actuacion\/carta-de-derechos-digitales\" rel=\"noreferrer noopener\" target=\"_blank\">Carta de Derechos Digitales<\/a>&nbsp;que puso en marcha el Gobierno espa\u00f1ol en 2021 es un ejemplo de esta tarea pendiente de concienciaci\u00f3n y prevenci\u00f3n ciudadana.<\/p>\n\n\n\n<p>Sin embargo, a\u00fan falta accionarla para que sea realmente eficaz, y esto no es una tarea f\u00e1cil. Una regulaci\u00f3n excesiva podr\u00eda sofocar la innovaci\u00f3n, mientras que una falta de regulaci\u00f3n, y de medidas concretas y pr\u00e1cticas, podr\u00eda dejar a las personas desprotegidas en muchos sentidos.<\/p>\n\n\n\n<p>En esta l\u00ednea, la Uni\u00f3n Europea&nbsp;<a href=\"https:\/\/digital-strategy.ec.europa.eu\/es\/policies\/regulatory-framework-ai\" rel=\"noreferrer noopener\" target=\"_blank\">aprob\u00f3<\/a>, en agosto de 2024, la Ley de Inteligencia Artificial, en un<a href=\"https:\/\/www.europarl.europa.eu\/topics\/es\/article\/20200918STO87404\/inteligencia-artificial-oportunidades-y-desafios\" rel=\"noreferrer noopener\" target=\"_blank\">&nbsp;esfuerzo com\u00fan&nbsp;<\/a>entre los organismos reguladores europeos, empresas, expertos en IA y sociedad civil. Su objetivo: proteger los derechos fundamentales de las personas, garantizar la transparencia en la toma de decisiones de los sistemas de IA y establecer mecanismos de rendici\u00f3n de cuentas y supervisi\u00f3n humana adecuados, entre otras cuestiones b\u00e1sicas.<\/p>\n\n\n\n<p>No pretenden regular la tecnolog\u00eda en s\u00ed misma, ya que esto supondr\u00eda un problema para su implementaci\u00f3n y desarrollo en la industria de la UE, sino casos espec\u00edficos que pueden suponer un riesgo. Est\u00e1n los usos y desarrollos prohibidos (como puntuaci\u00f3n social de la poblaci\u00f3n), los de alto riesgo (aquellos cuya implementaci\u00f3n puede afectar a los derechos fundamentales de la persona, como el uso de la IA para incorporaci\u00f3n a un puesto de trabajo), los de riesgo medio (obligaciones de transparencia, como en el caso de chatbots) y los de riesgo bajo (automatismos sin riesgo, como filtros de spam).<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">La manipulaci\u00f3n, uno de los principales riesgos reales<\/h2>\n\n\n\n<p>Uno de los m\u00e1s claros fen\u00f3menos que ya se est\u00e1 empezando a vislumbrar es la manipulaci\u00f3n, esa tendencia a dejarnos llevar por ideas no consolidadas por nosotros mismos, incluso de manera inconsciente.<\/p>\n\n\n\n<p>El empleo, principalmente a trav\u00e9s de sistemas de recomendaci\u00f3n, est\u00e1 empezando a incidir en la capacidad de decisi\u00f3n de unos consumidores cada vez m\u00e1s pasivos. Pero, en pocas l\u00edneas, cabr\u00eda plantearse qui\u00e9n es \u201cel verdadero culpable\u201d de una situaci\u00f3n que podr\u00eda desembocar una merma para la actual democracia. \u00bfEs la inteligencia artificial, como tecnolog\u00eda? \u00bfSon las m\u00e1quinas que \u201ctoman decisiones\u201d por nosotros y nos incitan a un consumo premeditado?<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Software sin intenci\u00f3n ni responsabilidad<\/h2>\n\n\n\n<p>En primer lugar, los sistemas de IA son software, es decir, programas inform\u00e1ticos, con peculiaridades espec\u00edficas. Por tanto, sin responsabilidad ni intenci\u00f3n. S\u00ed la tienen, sin embargo, las empresas u organismos \u2013tanto p\u00fablicos, como privados\u2013 que las usan o las desarrollan. Clarificar esta cuesti\u00f3n es clave para dejar de personificar en la IA las responsabilidades humanas con el empleo de cualquier tecnolog\u00eda.<\/p>\n\n\n\n<p>Por otro lado, tenemos la cuesti\u00f3n de la preparaci\u00f3n real de nuestra sociedad para asumir el impacto de la IA. Aunque a partir de la salida de ChatGPT empez\u00f3 a democratizarse su uso, el conocimiento general sobre sus repercusiones en nuestro d\u00eda a\u00fan es muy vago.<\/p>\n\n\n\n<p>Es necesario que se involucren los poderes p\u00fablicos, las empresas y los centros educativos para trabajar conjuntamente en una revoluci\u00f3n cultural y educativa que fomente el conocimiento en impacto de la IA y el esp\u00edritu cr\u00edtico de las personas. En caso contrario, la era de la inteligencia artificial podr\u00eda llegar a relacionarse con la de la manipulaci\u00f3n masiva inconsciente.<\/p>\n\n\n\n<p>En definitiva, la IA presenta un potencial transformador inmenso. Sin embargo, como cualquier herramienta poderosa, conlleva tanto oportunidades como peligros. Aunque existen esfuerzos en curso para desarrollar una regulaci\u00f3n s\u00f3lida, todav\u00eda hay un largo camino por recorrer para garantizar su uso seguro y \u00e9tico en nuestra sociedad.<\/p>\n\n\n\n<p>Eso s\u00ed, debemos recordar que el peligro no es la IA en s\u00ed misma, sino el uso que nosotros, los humanos, hacemos de ella. La clave est\u00e1 en aumentar la conciencia popular y profesional sobre los riesgos. Por otro lado, aunque hoy d\u00eda no es una opci\u00f3n negarse a la incorporaci\u00f3n de esta tecnolog\u00eda en nuestra vida, se debe incentivar su aplicaci\u00f3n y desarrollo \u00e9tico y responsable desde el dise\u00f1o, es decir, desde el planteamiento inicial del proyecto con IA. Asimismo, se debe realizar un seguimiento durante todo su ciclo de vida. Solo de esta manera conseguiremos un impacto positivo de esta revolucionaria tecnolog\u00eda.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La&nbsp;inteligencia artificial&nbsp;(IA) ya incide en m\u00faltiples \u00e1mbitos de nuestra vida cotidiana, desde el reconocimiento de voz en nuestros tel\u00e9fonos hasta el an\u00e1lisis de datos en la investigaci\u00f3n m\u00e9dica. Su avanzada tecnolog\u00eda ofrece innumerables ventajas, como la automatizaci\u00f3n de tareas, eficiencia, capacidad de procesamiento de grandes vol\u00famenes de datos y personalizaci\u00f3n de m\u00faltiples servicios. Sin embargo, [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":139382,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[57],"tags":[],"class_list":["post-139381","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/posts\/139381","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/comments?post=139381"}],"version-history":[{"count":1,"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/posts\/139381\/revisions"}],"predecessor-version":[{"id":139383,"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/posts\/139381\/revisions\/139383"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/media\/139382"}],"wp:attachment":[{"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/media?parent=139381"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/categories?post=139381"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/elcuartopoder.com.mx\/nw\/wp-json\/wp\/v2\/tags?post=139381"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}