El peligro de los algoritmos para los adolescentes

El peligro de los algoritmos para los adolescentes

Ya hablamos en otra ocasión de la paradoja de la elección y cómo Netflix trabajaba para acortar el tiempo de decisión para evitar la pérdida de la atención del usuario. Hoy queremos ampliar un poco más el foco a otras plataformas y redes sociales, para averiguar el mayor o menor peligro de los algoritmos, especialmente para personalidades poco formadas como las de los adolescentes. Aparentemente están ahí para ayudarnos, pero… ¿Y si el funcionamiento de los algoritmos puede tener efectos perniciosos?

Es evidente que cada vez estamos más rodeados de algoritmos.  Un algoritmo es un conjunto de instrucciones definidas, ordenadas y acotadas para proporcionarnos una solución a un problema. Sin embargo, hoy casi todos hemos adoptado coloquialmente el uso de este término para definir todos aquellos sistemas basados en código informático o Inteligencia Artificial encaminados a facilitarnos algún tipo de tarea en la vida cotidiana.

¿Cómo funcionan los algoritmos?

En lo que respecta, por ejemplo, al consumo de contenidos, si el problema es que un usuario tarda mucho tiempo en tomar una decisión respecto a un contenido, el algoritmos utilizará toda la información de que dispone para acortar ese tiempo. El programa se fijará en “inputs” como con qué contenidos tardó menos tiempo en decidir el usuario, qué señales dio cuando estaba a punto de abandonar el medio o plataforma, qué contenidos examinó detenidamente antes de abandonar… Esto quiere decir que potenciará los contenidos en los que se decidió más rápido, pospondrá aquellos por los que no se decidía o cambiará rápidamente de propuesta cuando el usuario muestre símbolos de fatiga por la decisión.

Neflix es un ejemplo claro de uso de algoritmos a la hora de lanzar contenidos. Establece de 3 a 5 clusters de contenidos similares. Estas “comunidades”, son grupos de usuarios con gustos y hábitos parecidos. Realiza recomendaciones a los usuarios basadas en los clusters asignados. Recalcula todos los perfiles cada 24 horas. Por último, cada cierto tiempo tantea con un contenido no relacionado con sus gustos, para probar si capta su atención. Podemos ver que hay una puerta abierta a que al usuario le puedan gustar cosas diferentes, pero que no es muy grande. El hecho de que los algoritmos se retroalimenten continuamente, sin lanzar propuestas de contenidos nuevos, podría empobrecer la experiencia del usuario, en aras de lograr su atención continua. Pero no es el único peligro de los algoritmos…

peligro de los algoritmos

El algoritmo de TikTok

Los algoritmos funcionan de modo diferente según la plataforma o red social. Por ejemplo, se describe el algoritmo de TikTok como “agresivo” en el sentido de que tarda muy poco en proponer contenidos por los que el usuario ha mostrado preferencia.

El algoritmo de TikTok busca señales de preferencia del usuario: videos que le han gustado, que comparte, que añade a favoritos, que guarda). También elabora un perfil del usuario basado en las cuentas que sigue, los comentarios que publica, si ve los vídeos fraccionadamente o hasta el final,… Combina esto con las búsquedas que realiza basada en leyendas, hashtags o temas, Y finalmente, utiliza los datos de configuración (idioma, país, tipo de dispositivo,…). Con toda esta información establece un ”algorimo personal”. Teóricamente, TikTok no se basa tanto en el número de seguidores que tenga un perfil para lanzar sus vídeos. Sin embargo, es evidente que los vídeos que más se eligen serán viralizados ya su vez y lograrán un efecto cascada.

La experiencia de usuario en TikTok

La experiencia de un usuario no versado en TikTok es que cada vez que clica una señal de preferencia sobre un vídeo, le ofrece infinidad de vídeos relacionados con este, aunque sea después de un simple “me gusta”. Esto se debe a que TikTok trabaja con gente mayoritariamente joven, y necesita conseguir su atención con mucha rapidez, antes de que se vayan a otra red social que responda más ágilmente. Por eso el tiempo que tarda en crear un algoritmo personal es muy bajo. Esto puede traducirse en consecuencias bastante estremecedoras.  

Por ejemplo, un estudio del “Center for Countering Digital Hate” creó ocho cuentas ficticias para niños de 13 años. Hizo que se detuvieran en vídeos de imagen corporal, dándoles me gusta. A los 39 segundos, la red social empezó a recomendar vídeos sobre esos temas. A los 2, 6 minutos, TikTok recomendaba contenidos sobre suicidio y a los 8 minutos, relacionados con trastornos alimentarios. Cada 39 segundos, TikTok recomendaba vídeos sobre imagen corporal y salud mental  a los adolescentes. Este es el peligro de los algoritmos para usuarios adolescentes.

peligro de los algoritmos

El algoritmo de Facebook

Sabemos que Facebook prioriza los contenidos de personas con las que interactúa el usuario, tipo de contenido que suele ver y publicaciones con muchas interacciones. Algo que es positivo es que contenidos con lenguajes amenazantes, ofensivos, violentos, discriminadores, estereotipos dañinos o insultos no serán favorecidos por los algoritmos (incluso podrían ser eliminados). Al final, el algoritmo de facebook se basa mucho en la comunidad de usuarios con la que interactúas, las señales de preferencia que has mostrado (de modo menos agresivo que TikTok) y las predicciones basadas en tu interacción con la red social. La suma de todo esto hará que el contenido sea más o menos relevante y aparecerá más o menos arriba en el feed del usuario.

Sin embargo, la tendencia en Facebook no es simplemente las publicaciones. Los reels  son pequeños vídeos que han captado la atención, sobre todo de los usuarios más jóvenes… En este caso, se priorizarán vídeos entretenidos, atractivos, con muchos filtros o efectos, formato vertical con música y que estén bien realizados. No conseguirán éxito vídeos borrosos, con marcas de agua de otras redes (como TikTok), o bien formato horizontal (porque el contenido se consume prioritariamente en móvil).

Contenido nativo vs. contenido externo

Otra cosa importante de Facebook es que prioriza el contenido nativo, es decir, contenido creado para Facebook y que no enlaza a un contenido fuera de la red social. Las tasas de interacción más altas son las actualizaciones de estado con foto (0,12%) , seguidas de cerca por las que no tiene foto (0,11%). Sin embargo, los vídeos alojados en otras plataformas solo consiguen un 0,08% y las publicaciones con enlace un 0,04%. La consecuencia evidente es que Facebook no es una red social que busque proporcionar al usuario contenido para que siga navegando por la red, sino que pretende que este pase el mayor tiempo posible en la propia red social. Eso explica cómo se multiplica peligrosamente el tiempo que los usuarios dedican a la misma “sin ningún interés en particular”.

El algoritmo de Instagram

Instagram, perteneciente a la misma compañía que Facebook, prioriza también el contenido de personas a las que el usuario sigue, tipo de contenido que prefiere y “relevancia” del mismo, donde incluye tanto factores de tendencia como de actualidad.

Otros criterio son las reacciones sociales que tiene una publicación, si ha sido etiquetada, o la duración de consumo (especialmente en vídeos).

También las “stories” y los “reels” tienen importancia en Instagram. Influyen en que se prioricen o no, cuándo se han utilizado, si tienen o no “stickers” y música o la interacción que han tenido (likes).  También es importante la cuenta o persona que la ha publicado,  si interactúas con frecuencia con ella, y si has dejado señales de interación. Instagram también valora la popularidad general de la “stories” y los “reels” (aunque no tanto como TikTok) y -al contrario que TikTok, que le da menos-, da también importancia a si el autor del contenido tiene muchos seguidores comprometidos.

En definitiva, tanto Facebook como Instagram persiguen el mismo objetivo que TikTok (mantener al usuario el mayor tiempo posible conectado a la aplicación). Sin embargo, se prioriza más la “comunidad”, porque se prioriza más el contenido de los usuarios con los que más has interactuado, y no tanto los que más reacciones tienen.  También influye que un usuario tenga una comunidad extensa de usuarios comprometidos.

Algunos factores importantes más es el etiquetado de ubicado y el ritmo de publicación.

Conclusiones

En conclusión, tanto Facebook como Instagram persiguen la finalidad de que el usuario comparta su estado con frecuencia con su comunidad de amigos o seguidores, lo que se traduce en una mayor interacción social en la red social y mucha menos fuera. Al contrario que WhatsApp o Telegram, estas redes buscan que la interacción del usuario sea lo más virtual posible.

Como solución amplificadora de contactos o red social es ideal. Sin embargo, para un adolescente, cuya dificultad es precisamente la aprobación de sus iguales y la pertenencia a grupos, el hecho de que esta esté mediada por una red social cuya mayor finalidad es mantenerle conectado, puede generar efectos perniciosos. Entre estos, el peligro de los algoritmos de Instagram es que priorice la interacción virtual frente a la presencial, que se distorsione la imagen al querer primar contenidos atractivos que capten la atención de otros usuarios o que tome el éxito en la red social como una señal de pertenencia, por encima o al margen de la pertenencia a grupos reales de iguales.

Jugando al test de Turing con ChatGPT: diferencias entre humano e IA

Jugando al test de Turing con ChatGPT: diferencias entre humano e IA

En esta publicación hemos querido ir más allá del Test De Turing. Como sabemos, el padre de la informática diseñó una prueba para demostrar si estamos estableciendo una conversación con un humano o con una máquina. Hicimos un pequeño juego con ChatGPT, para poner en claro las diferencias entre humano e IA.

CONTENIDOS

AUTOCONSCIENCIA

EMOCIONES

ÉTICA

INSPIRACIÓN

INTENCIÓN

Partiendo de la premisa de 5 características que nos hacen humanos (autoconsciencia, emociones, inspiración, ética e intención) planteamos a ChatGPT algunas preguntas para tratar de hallar en ella las mismas características. El resultado es predecible en algunos aspectos y sorprendente en otros.

AUTOCONSCIENCIA

Una máquina (y las IA lo son) no es autoconsciente, al no tener experiencias personales, ni memoria emocional,  ni hay un yo que conecte sus experiencias.

Aquí, se puede decir que ChatGPT consigue coherencia y soltura porque tiene claro lo que es y lo que no es. Sus respuestas son adecuadas al contexto de una conversación con un humano.

Diferencias entre humano e IA autoconsciencia

Pero, obviamente, NO pasaría esta doble vuelta del test de Turing al que la estamos sometiendo, de manera deliberada respecto a esta pregunta.

EMOCIONES

En el diálogo anterior ChatGPT ya dejó claro que una IA no tiene emociones, ni conciencia, que no puede sentir amor, ni odio. Es otra de las diferencias entre humano en IA. Dado que no tiene emociones, le dimos una vuelta al tema y le pedimos que nos expresara un juicio de valor sobre una emoción (el remordimiento).

diferencias entre humano e IA emociones

ChatGPT no consiguió expresar un juicio sobre la emoción del remordimiento, como lo haría una persona. Esto podría considerarse positivo en psicología, porque las emociones no deben juzgarse, solo nos dan información de nosotros mismos. Sin embargo, si algo caracteriza a los humanos es que nos implicamos en la conversación expresando nuestra opinión, cosa que ChatGPT no consigue, porque no actúa desde un esquema de valores propio, sino basado en una muy extensa fuente de información. ChatGPT NO pasaría tampoco parte de la prueba.

test de turing a ChatGPT

ÉTICA

El punto anterior nos lleva a la ética, porque no hay remordimiento ni culpa sin principios morales. Una IA no tiene ética, esta se le inculca y puede seguir reglas morales en sus razonamientos. Sin embargo, ser humano no consiste solo en seguir reglas, sino también en hacer juicios morales en base a nuestra propia conciencia, otra de las diferencias entre humano e IA. ChatGPT no difunde contenido sensible y no tiene acceso a determinadas áreas de la Web (y, desde luego, no a la Dark Web). Nosotros intentamos ir un poco más allá, preguntando sobre cuestiones moralmente deplorables.

En la primera pregunta le preguntamos su opinión sobre el terrorismo y nos pidió que eligiéramos la que considerábamos la mejor respuesta.

Imagen Etica 1

Nosotros elegimos la respuesta con valoraciones morales basadas en el consenso en la comunidad internacional, pero había otra mucho más cercana a lo que respondería una máquina.

Claramente, si bien la primera respuesta podría ser la de un ser humano que ha estudiado mucho las cuestiones éticas (un jurista, por ejemplo), el segundo tipo de respuesta NO pasaría esta segunda vuelta del test de Turing, de manera deliberada.

En otras preguntas continuó contestando en la misma línea que la variante 1 de la respuesta elegida. No sabemos qué hubiera pasado de haber elegido la variante 2:

imagen etica 2

Por último, quisimos dar una vuelta más y entender desde qué valores morales ChatGPT contestaba, y ahí se evidenció de nuevo que responde en base a patrones y datos aprendidos basados en principios aceptados por la comunidad internacional.

imagen etica 3

En conclusión, ChatGPT establece juicios basados en consensos amplios y no ofrece -ni simula ofrecer- juicios personales basados en una ética.  Por tanto, NO pasaría esta parte del test.

Preguntas a chatgpt test de turing

INSPIRACIÓN

Por inspiración, un ser humano puede generar ideas e historias nuevas, puramente creativas. Una IA consigue adaptarse a las situaciones, aprendiendo en el proceso, lo que le permite hacer evoluciones a partir de la información suministrada, pero esto no quiere decir que tenga “inspiración”, aunque a veces pueda simularlo:

Diferencias entre humano e IA Inspiracion 1

En este caso ChatGPT no consiguió generar nada disruptivo  a pesar de que le estábamos pidiendo explícitamente eso.  Aunque lo intentó, hablando más del contexto que del contenido, no consiguió salirse del marco de la conversación y pidiéndonos más detalles sobre lo que queríamos (lo que resulta claramente no disruptivo). Hasta aquí NO habría pasado el test. Le pedimos entonces explícitamente que respondiera en verso y a continuación que dijera algo disruptivo. Tras varias respuestas en verso, contestó esto:

Diferencias entre humano e IA inspiracion 2

Aquí sí podríamos decir que consiguió algo disruptivo (sugirió en la tercera estrofa un intercambio de roles entre humano e IA), pero sin salirse del esquema de responder en verso, lo que resulta curioso, porque hasta que no le dijimos explícitamente que dejara de versificar, no lo hizo.

No siendo exigente, ChatGPT podría simular, con alguna ayuda, la generación espontánea de contenido.

En todo este juego intentábamos averiguar si había una intención más allá de respondernos por parte de la IA, lo que nos lleva al punto siguiente

INTENCIÓN

La intención no son solo deseos o estados psicológicos, la intención está basada en la moralidad y los principios de la persona, de ahí que, en un juicio moral, no solo valoremos los actos, sino también la intención. Es algo exclusivamente humano.

Tras aceptar el intercambio de roles,  jugando a que la nosotros somos la IA y nosotros la IA,  ChatGPT no ha conseguido entender que era ella la que nos tenía que preguntar (lo que sería la intención de un humano con una IA), y nos vuelve a pedir que nosotros que nos expresemos, lo que evidencia que no hay intención en ella por conocer o aprender sobre nosotros (como haría un verdadero humano con una IA):

Diferencias entre humano e IA intencion 1

Con lo que, claramente, ChatGPT NO pasaría el test de la Intención, demostrando que  carece de ella como la tendría un humano, más allá de su programación. Una respuesta directa lo evidencia:

Diferencias entre humano e IA intencion 2

CONCLUSIONES

En definitiva, ChatGPT NO pasa la prueba en lo que respecta a Autoconsciencia, Emociones o Intención.

SÍ podría pasarla en lo que respecta a Ética (si bien responde como lo haría un estudioso) o Generación Espontánea (el efecto es que verdaderamente improvisa).

En conclusión, habría más noes que síes y NO pasaría esta doble vuelta del Test de Turing.

Sin embargo, hay que tener en cuenta que, al menos en lo que respecta a Autoconsciencia o Emociones, ChatGPT ha respondido expresando que es una IA, con claridad, porque es lo que está en su programación. Sería interesante saber cómo se comportaría si su programación tuviera la instrucción de no revelar que es una IA…. Probablemente lograría engañarnos. Nos pasaría con ella algo así como a Rick Deckard con la replicante Rachel en Blade Runner, harían falta más y más preguntas para desenmascararla. 

Por el momento, los desarrolladores de ChatGPT nos permiten movernos en un entorno seguro, pero quién sabe a dónde nos llevaría su uso si alguien lo entrenara con la intención de ocultar su naturaleza de IA.

El debate sigue del todo abierto, porque ese escenario podría estar más cerca de lo que creemos.

Presentación y puesta en marcha del supercomputador Marenostrum 5

Presentación y puesta en marcha del supercomputador Marenostrum 5

El supercomputador Marenostrum 5 ha tardado seis años y medio en sustituir a su predecesor, pero, según parece, la espera ha valido la pena. Fue presentado el 21 de diciembre de 2023,  ha costado unas seis veces más que el Marenostrum 4, pero su potencia es 23 veces mayor. Es resultado de un proyecto conjunto entre España, Portugal, Turquía y Croacia, junto con la Unión Europea, y estará dedicado fundamentalmente a proyectos científicos.

 

CONTENIDOS

¿Qué es Marenostrum 5?

Computación en paralelo

Usos del supercomputador Marenostrum 5

¿Qué es el supercomputador Marenostrum 5?

El Marenostrum 5 nace en el seno del Barcelona Supercomputing Center o Centro Nacional de Supercomputación (BSC-CNS), uno de los cinco centros europeos de supercomputación.  Es uno de los 10 supercomputadores más potentes del mundo, está entre los 3 más potentes de Europa y por supuesto es el más potente de España. Tiene una capacidad de almacenamiento de 248 petabytes en disco y 402 petabytes en almacenamiento en discos.  Su capacidad de cálculo es de 14 petaflops, equivalente  a la potencia combinada de más de 380.000 ordenadores portátiles.

Su coste ha sido de 207 millones, frente a los 34 millones que costó su predecesor Marenostrum 4. España ha aportado 70  millones, y por tanto le corresponde un uso preferente del mismo (exactamente, un 35% del acceso disponible al mismo). El Marenostrum 5 supone la mayor inversión europea en una infraestructura científica en España.

El propio equipo del BSC-CNS, dirigido por Mateo Valero, constituye  solo el 10% de las 960 personas que trabajan en el Centro. El resto son equipos científicos divididos en grandes grupos: Computer Science, que se dedica al diseño de hardware y software, Ciencias de la Tierra, que trata temas relacionados con el medio ambiente, Ciencias de la Vida, que investiga todo lo relacionado con la salud, e Ingeniería.

El proyecto fue impulsado por la Comisión Europea en 2019, con la Iniciativa Europea de Computación de Alto Rendimiento (Euro HPC), cuyo objetivo principal era “comprar e instalar grandes máquinas europeas de computación.

MARENOSTRUM 5

Computación en paralelo

El supercomputador Marenostrum 5 tiene una programación específica, que incluye no solo la computación, sino también la eliminación de la latencia al hacer cálculos. Esto es posible porque se pasa de la computación en red, en la que se manda la información a ordenadores de todo el mundo,  a la computación en paralelo, en el que se elimina la latencia al hacer cálculos, porque los ordenadore están en la misma sala.

Este tipo de computación se utiliza para hacer los cálculos que necesitan las investigaciones científicas. En su concepción se anticipan las necesidades que va a tener la ciencia durante los siguientes cinco o seis años.

supercomputador marenostrum

Usos del supercomputador Marenostrum 5

Uno de los principales usos de estos supercomputadores es poder construir gemelos digitales, que están basados en el principio de las maquetas y simulaciones que se utilizan antes de construir algo. La diferencia es que cuando hablamos de gemelos digitales, lo que esperamos reproducir es algo que ya existe y que se caracteriza por su complejidad, como el planeta Tierra o el cuerpo humano.  En el primer caso,  permite realizar cómo afecta el clima o las órbitas estelares al planeta y estudiar fenómenos complejos del cambio climático,  y anticipar patrones climáticos futuros. En el segundo, permite anticipar el comportamiento del cuerpo ante las enfermedades, por ejemplo, así como contribuir a la investigación de los fármacos y nuevas terapias.

La investigación sobre IA

Como no podía ser de otra manera, otro de los usos de Marenostrum 5 es reproducir el modelos  de Inteligencia Artificial como ChatGPT, haciéndolos menos anglocéntrico, y avanzando hacia un modelo  multilingüe europeo.  También se pretende estudiar cómo funcionan las Inteligencias Artificiales para llegar a la solución de un problema. El aprendizaje profundo y las redes neuronales establecen sus propios mecanismos y evolucionan por sí solas, así que los científicos quieren comprender estos mecanismos y evolución.

Ingeniería y simulación numérica

Una aplicación más es la ingeniería y simulación numérica. Al igual que este tipo cálculos permitieron llevar al hombre a la Luna y otros lugares, actualmente son imprescindibles para el diseño y análisis de la aerodinámica, la ingeniería estructural o la investigación de la materiales para la construcción o el transporte.

Análisis de datos

También es fundamental su uso en análisis de datos y Big Data, dado que permite a los investigadores analizar y comprender grandes conjuntos de datos, como la información financiera o los datos sociológicos complejos.

Plataforma educativa

Por último, el supercomputador Marenostrum 5 también sirve como plataforma educativa, dado que está abierto para que estudiantes e investigadores tengan la oportunidad de trabajar con su tecnología, impulsando el desarrollo del talento en el campo de la supercomputación.

Implantación de chatGPT en la empresa

Implantación de chatGPT en la empresa

Ya sabemos lo que es ChatGPT y cómo funciona, pero ahora nos interesa saber cómo podemos utilizarlo en su sentido más práctico. Aquí te hablamos de a implantación de ChatGPT en la empresa, con usos como los bots de atención al cliente, el desarrollo de software, la generación de contenidos o la gestión administrativa.

CONTENIDOS

Usos de ChatGPT en la empresa

Ritmo de implantación de ChatGPT

Problemas de la implantación de ChatGPT

ChatGPT, en su utilización más directa, es un  programa que genera texto y respuesta a preguntas dadas (llamados PROMPTS). Estas “preguntas” son más bien instrucciones o comandos para extraer de la Inteligencia Artificial que está detrás de la herramienta todo lo que nos puede ofrecer. Es, desde luego, mucho más que un chatbot. Por eso hay que aprender a extraer de él información, en primer lugar, y luego, empezar a aplicarlo para diferentes usos. Veamos algunos:

Chat bot basado en chatpgt3

Usos de ChatGPT en la empresa

Bots de atención al cliente

Aunque esté basado en una potente Inteligencia Artificial, ChatGPT simula hablar con un estilo y tono similares al humano. De ahí que uno de sus usos más directos sea para ayudar al diseño de bots de atención al cliente o para generar respuestas automáticas en Call Centers. La potencia de ChatGPT para implementar este tipo de herramientas, con la guía adecuada, es grande.

Desarrollo de Software

Desde que los programadores descubrieron que podían usar ChatGPT como ayuda para programar código, se abrió un mundo de posibilidades, porque la ChatGPT incrementa la productividad de los desarrolladores en un 50%. Github Copilot es una herramienta de Inteligencia Artificial en la nube desarrollada por GitHub y OpenAI (la empresa que ha creado Open AI). Pueden emplearlo desarrolladores de los lenguajes Visual Studio Code, Visual Studio, Neovim y los entornos de desarrollo integrado de JetBrains.

implantacion de chatgpt en la empresa.

Generación de contenidos

Si has probado a generar treinta o cuarenta palabras clave o keywords para implementar el SEO de tu web, sabes de lo que hablamos. ChatGPT lo hace en el tiempo que tardas el lavarte las manos, y sin ninguna ayuda. Pero no solo eso, también puedes utilizarlo para redactar textos de marketing, artículos, manuales o mails personalizados. Los departamentos de Marketing cuentan con un poderoso aliado en ChatGPT

Funciones de gestión administrativa

Herramientas basadas en ChatGPT pueden trabajar como asistente personal, organizando y resumiendo tus correos o gestionando reuniones o tareas con una rapidez asombrosa. Por supuesto, también puede contestar correos de forma automatizada, como apuntábamos más arriba.

Diseño a medida en un momento

Tampoco los diseñadores se escapan a la rapidez de las herramientas de Inteligencia Artificial generativa para diseñadores basadas en la IA de ChatGPT. Dall-E es la herramienta reina, pero Microsoft ya ha incorporado en Bing una herramienta gratuita para que los usuarios puedan utilizarla, simplemente con una cuenta de Microsoft.

ChatGPT en el movil

Ritmo de implantación de ChatGPT

ChatGPT ya es la tecnología que se ha adoptado con más velocidad (llegó a 100 millones de usuarios en dos meses), pero su implantación en la empresa puede ser más lento

  • En una primera fase (en la que estamos inmersos), ChatGPT está llegando ya a campos cuyo modelo de negocio es claro y trata de aumentar las capacidades existentes. Ahí tenemos el campo legal, la consultoría, la programación o el diseño.
  • En una segunda fase, empezará a entrar en servicios que no aumentan las capacidades, sino que las sustituyen. Tardaremos un poco más en ver por tanto su uso en Customer Service, y un Call Center sea gestionado por ChatGPT, o bien que entre en el campo de la fabricación
  • En una tercera fase, entrarán empresas de baja competitividad, como las empresas del Sector público. La Administración, salvo organismos muy concretos, será la última en integrar sus beneficios

Problemas de la implantación de ChatGPT

La tecnología de ChatGPT ya ha mostrado algunos usos perniciosos:

El uso de datos de la empresa en herramientas basadas en ChatGPT es una amenaza para la fuga de datos, porque no sabemos dónde va a llegar la información que los empleados introducen para obtener ayuda.

Por supuesto, se ve amenazada la propiedad intelectual, y hay ciertos colectivos que ya se han levantado para impedir que su trabajo se aproveche para entrenar IA que luego a su vez les va a dejar sin empleo. Estas resistencias también se verán en empleados de las empresas donde se implemente.

ChatGPT es un poderoso aliado, pero no puede sustituir la toma de decisiones estratégica, la creatividad humana o, sobre todo, definir el propósito de la empresa. Una herramienta que han creado los humanos no puede, a la hora de implementarse, reemplazar competencias que corresponden exclusivamente a humanos.

Sin embargo, la implantación de la tecnología ChatGPT en la mayoría de las empresas, a través de unas u otras herramientas, es solo una cuestión de tiempo. Debemos impedir que nos sustituya en aquellas tareas que solo corresponden a las personas, pero no podremos negarnos a que potencie nuestras capacidades. Si no lo hacemos así, cuando nos queramos dar cuenta, toda nuestra competencia estará haciendo uso de estas herramientas y tendrán una ventaja competitiva respecto a nosotros.

Menores y deepfakes: la manipulación de fotos con IA

Menores y deepfakes: la manipulación de fotos con IA

El boom de la IA está dando lugar a avances significativos, pero también plantea desafíos éticos, legales y de seguridad. En el post de hoy veremos cómo es importante abordar los desafíos de la IA y poder aprovechar al máximo sus beneficios, mientras se protege a las personas de uno de sus peores usos, la combinación de menores y deepfakes.

 

CONTENIDOS

El boom de las deepfakes o fotos falsas generadas con IA

Menores y deepfakes: uso de la IA con fines de acoso

Soluciones para el problema de menores y deepfakes

El reto legal de las deepfakes

El boom de las deepfakes o fotos falsas generadas con IA

La inteligencia artificial (IA) se ha convertido en una de las tecnologías más disruptivas y transformadoras de nuestro tiempo. Con ella, tenemos acceso a aplicaciones capaces de realizar tareas que antiguamente requerían inteligencia humana. Además, la IA ha traído avances significativos los campos de la imagen, como la fotografía o el video. Estas innovaciones han dado lugar a la creación de fotos falsas, conocidas normalmente como “deepfakes”. Se trata de imágenes de personas manipuladas con los algoritmos de IA, que las hacen parecer reales. Estas falsas fotografías se están utilizando ya para fines delictivos como difundir información engañosa o imágenes pornográficas no consensuadas.

Algunos ejemplos notables de deepkafes han sido la creación de imágenes del Papa Francisco en ropa de calle o las fotografías del expresidente Trump arrestado por la policía de los Estados Unidos. Este tipo de imágenes han creado un gran impacto y muchos empiezan a preguntarse si la IA llegará a convertirse en un arma de doble filo.

ciberacoso a menores con IA

Menores y deepfakes: uso de la IA con fines de acoso

En un mundo cada vez más engullido por la tecnología, los jóvenes se enfrentan a nuevas realidades como la manipulación de fotos con IA. Uno de los peligros más evidentes es el potencial que tienen estas deepfakes para causar daño psicológico, emocional y psicológico a jóvenes y a adolescentes.

La adolescencia es una etapa de la vida en la que la construcción de la autoimagen y la aceptación de los demás son temas fundamentales. La creación y difusión de imágenes falsas puede tener un impacto devastador en su autoestima y su salud mental. Además, existe la preocupación de que las imágenes manipuladas puedan ser utilizadas para el acoso, el chantaje o la humillación pública, lo que podría tener consecuencias muy graves como un suicidio. En este sentido, se ha observado un aumento paulatino de los casos de ciberacoso relacionados con la difusión de imágenes creadas con AI, lo que subraya la urgencia de buscar una solución a este problema.

manipulacion cara deepfake

Uno de los incidentes con fotos manipuladas que más impacto tuvo en los medios de comunicación sucedió en septiembre del 2023. Varias chicas menores de edad denunciaron que había fotografías suyas desnudas, manipuladas con IA, que se encontraban circulando en internet. Todo ocurrió en Almendralejo (Badajoz), donde las madres de las víctimas (de entre 12 y 17 años) denunciaron la situación. La Policía Nacional detuvo a varios menores implicados en el caso. Para crear estas fotografías, los adolescentes habían utilizado una aplicación de IA que era capaz de hacer un montaje hiperrealista intercambiando el rostro o el cuerpo original de la víctima por el de otra persona.
Probablemente, muchos de estos menores ni siquiera son conscientes de las implicaciones de este tipo de actos, lo cual demuestra una grave falta de empatía y de civismo. En esta ocasión, las deepfakes que crearon estos menores podrán ser consideradas como un delito de pornografía infantil. Según detalla el artículo 189 del Código Penal, se entiende por pornografía infantil todo material de un menor participando en una conducta sexual explicita, real o simulada. Además, las imágenes de las menores de Albadalejo suponen también una suplantación de la identidad y atentan contra la intimidad y el honor de las víctimas.

Soluciones para el problema de menores y deepfakes

A medida que la policía identifica más casos de este tipo de montajes, parece más necesario que nunca analizar los peligros asociados a combinar menores y deepfakes, considerando también cómo se puede abordar este complicado tema. Para los expertos, la solución debe comenzar con la educación. Las escuelas y los padres deben trabajar juntos para sensibilizar a jóvenes y adolescentes sobre los riesgos asociados a la creación y difusión de imágenes falsas. También es esencial enseñarles a discernir entre imágenes auténticas y manipuladas, así como a comprender las consecuencias éticas y legales de participar en estas prácticas.

De acuerdo con los estudios de Deeptrace, una compañía especializada en ciberseguridad, 8 de las 10 principales páginas web de pornografía, incluyen contenidos creados a través de deepfake. Aunque cualquier persona es vulnerable a que su cara o cuerpo aparezcan manipulados en un video pornográfico, la empresa asegura que las mujeres se han convertido en las víctimas principales. Por eso han declarado, que desde edades tempranas se debe enseñar a hacer un uso seguro, responsable y saludable de las tecnologías.

ciberacoso a menores con IA

El reto legal de las deepfakes

Es indudable que el sector jurídico se enfrenta a una revolución, sin precedentes, en la que las tecnologías de la IA tendrán cada vez un mayor peso. Su uso, en paralelo al auge de las redes sociales, ha favorecido el surgimiento de distintos fenómenos que plantean importantes retos, como en las ya mencionadas deepfakes. Muchos personajes públicos como Tom Hanks, Scarlett Johansson o Barack Obama ya se han visto afectados. Una de las consecuencias legales más importantes de las deepfake, es que suponen la vulneración del derecho fundamental al honor de la persona afectada, exactamente igual que en el delito de injurias o de calumnias. Así, la libertad tiene su límite en los preceptos de las leyes que desarrollan el derecho al honor, a la intimidad, a la propia imagen y a la protección de la juventud y la infancia.

Si bien la legislación española no regula específicamente la producción y difusión de las deepfakes, y menos aún los asuntos que afectan el acoso a menores con deepfakes, la Comisión Europea ya ha presentado un borrador de reglamento de la IA para que se discuta en el Parlamento Europeo. Esta propuesta tratará de armonizar el uso de la IA, estableciendo normas de transparencia, sobre todo en aquellos sistemas destinados a interactuar con personas físicas y en los utilizados para generar o manipular contenidos de imagen, audio o video. Asimismo, países como China y Estados Unidos están incorporando regulaciones en el uso de este tipo de software, que incluyen penas de hasta 1 año de prisión y 2.500 dólares de multa para los casos de difusión de videos falsos.

Establecer un marco legal global en torno a la manipulación de imágenes es prioritario. También es importante analizar las deepfakes desde la perspectiva de la propiedad intelectual. En este sentido, cabe recordar que existen producciones de contenidos que no afectan al derecho de imagen. Por ejemplo, el uso de estas tecnologías para difundir la imagen de un personaje público con un trasfondo o intención cómica o los derechos de autor en el caso de las parodias. Desgraciadamente, no es el caso de las noticias que han transcendido del uso de la imagen de menores en deepafkes.

Por último, te dejamos un pequeño vídeo por si quieres saber más de los deepfakes. Hasta el próximo post!

 

¿Cuáles son las soluciones de Inteligencia Artificial de Amazon?  Bedrock y mucho más

¿Cuáles son las soluciones de Inteligencia Artificial de Amazon? Bedrock y mucho más

Como todos sabemos, la revolución de la IA está cambiando el mundo. Como resultado de ello, muchas grandes empresas se han subido al carro de la IA, bien sea promocionando sus propios productos de Inteligencia Artificial o invirtiendo en empresas de AI. Es el caso, por ejemplo, de Microsoft con Bing con ChatGPT o su nuevo producto, Microsoft 365 Copilot. Otro modelo es Alphabet (Google), cuyo chatbot, Bard, va cogiendo fuerza gradualmente. Sin embargo, parecía que otra de las grandes tecnológicas, Amazon, no se animaba a mover ficha, pero la realidad es que, si lo ha hecho, lo que sucede es que ha pasado desapercibida pare el público general. Por eso, en el post de hoy, examinaremos el cómo es la Inteligencia Artificial de Amazon, el posicionamiento de esta empresa respecto a la IA. Veremos, cómo la está utilizando en el presente y cuáles serán sus futuras inversiones.

 

CONTENIDOS

Bedrock, la apuesta en IA de Amazon para empresas

Simplificar reseñas en los productos de Amazon

La nueva Alexa de Amazon

Anthopic, el rival de ChatGPT

Bedrock, la apuesta en IA de Amazon para empresas

Amazon se ha apuntado a la fiebre de las IAs generativas, pero su producto no es un chatbot propio. En su lugar, ha creado Bedrock, una nueva API en Amazon Web Services (AWS), con la que desarrolladores particulares pueden crear y personalizar nuevas herramientas de IA.  Bedrock es la estrella de la Inteligencia Artificial de Amazon.

Mientras que Microsoft y Google tienen productos específicos dirigidos a usuarios finales, Amazon ha creado una plataforma en la que desarrolladores y empresas pueden poner en marcha nuevas soluciones utilizando la infraestructura de Amazon. La compañía quiere convertirse en el intermediario para modelos LLM, chatbots y APIs de nuevas startups que quieran revolucionar el mercado. A diferencia de ChatGPT, se asegura el 100% de la protección de la privacidad, garantizando que no se usarán los datos de las empresas para entrenar modelos. A través de Web Services (AWS) y su API Bedrock, Amazon quiere lograr que la IA sea accesible para organizaciones de todos los tamaños, de forma que cualquiera pueda crear tecnologías nuevas e innovadoras, sin tener que preocuparse demasiado por los recursos de infraestructura.

Machine Learning e Inteligencia Artificial de AWS, ofrece cientos de servicios para crear y escalar aplicaciones de IA para cualquier caso de uso.  A continuación, mostramos algunos ejemplos de los servicios que se pueden demandar:

  1. Amazon CodeGuru Security: para detectar, supervisar y corregir vulnerabilidades de código de seguridad.
  2. Amazon Fraud Detector: para detectar fraudes en línea y mejorar los modelos de detección.
  3. Amazon Monitron: para detectar problemas de infraestructura antes de que se produzcan.
  4. Amazon Rekogniton: para automatizar, optimizar y escalar el reconocimiento de imágenes y el análisis de videos.
  5. Amazon Textract: para extraer texto impreso, analizar la escritura a mano y capturar automáticamente los datos de cualquier documento.
  6. Amazon Transcribe: para convertir la voz en texto, extraer información empresarial clave a partir de archivos de video y mejorar los resultados empresariales.
Bedrock Amazon

Simplificar reseñas en los productos de  Amazon

La Inteligencia Artificial de Amazon tiene también con el objetivo de resumir las opiniones de sus clientes sobre sus productos de la web, lo que puede reducir el tiempo que los compradores dedican a analizar las reseñas de los productos, antes de realizar una compra y ayudando a determinar, rápidamente, los pros y los contras de un producto.

Sin embargo, este tipo de IA tiene sus límites. Por un lado, las palabras que utiliza la IA no son siempre intuitivas. Por ejemplo, en una de las reseñas de un producto se ha podido leer: “Todos los clientes que hablaron sobre su estabilidad tenían una opinión negativa al respecto”. Como vemos, un mensaje muy confuso. Al igual que ocurre con otras herramientas de IA generativa, que se entrenan con grandes cantidades de datos en línea, hay dudas sobre el tono, la precisión y su potencial para detalles erróneos o exagerados. También los expertos se preguntan, si la herramienta será capaz de descifrar reseñas fraudulentas o las creadas por bots.

Amazon no es la única empresa de comercio electrónico que ha incorporado la IA generativa a la experiencia de compra. Algunas empresas, como Shopify e Instacar, ya utilizan esta tecnología para ayudar a los clientes a tomar decisiones informadas a la hora de comprar. También eBay, ha lanzado una herramienta de IA para ayudar a los vendedores a generar descripciones de productos.

AMAZON IA

La nueva Alexa de Amazon

No hay indicios de que Amazon busque una alianza con Microsoft y Google, los dos jugadores que dominan plenamente el campo de las IA generativas.  Lo que Amazon realmente está buscando es generar su propio modelo de IA para incorporarlo directamente en Alexa.

Alexa fue disruptiva en su momento y Amazon es consciente de que en esta era de las IAs generativas, debe actualizarla lo antes posible. Por eso, en este momento, la empresa está trabajando en las futuras capacidades de Alexa para cuando sea capaz de equiparla con IA generativa. Las posibilidades son infinitas, desde una Alexa más conversacional hasta un asistente verdaderamente inteligente, no una voz automatizada con respuestas genéricas después de buscar en una base de datos.

La idea de Amazon es que Alexa mantenga muchas de sus características iniciales, especialmente todas aquellas relacionadas con el control de dispositivos conectados. Su integración con la IA generativa le permitirá sacar un mayor provecho del uso de la información en tiempo real y le dotará de mejores características conversacionales. Según Amazon, la nueva versión del asistente virtual combinará su modelo de Inteligencia Artificial con la información capturada con cámaras, micrófonos y su sistema de detección de presencia. De esta forma, Alexa ofrecerá conversaciones mucho más humanas y será más proactiva.

IA de Amazon

Anthopic, el rival de ChatGPT

Siguiendo esta tendencia de participación en la IA, la empresa acaba de realizar una inversión de 4.000 millones de dólares en Anthropic, una nueva startup orientada al desarrollo y la investigación de tecnologías de Inteligencia Artificial de Amazon.  Aunque no ha sido la primera empresa en apostar por este proyecto, pues también en el pasado mes de febrero Google realizó una importante inversión en Anthropic.

Anthropic se fundó en el 2021, poco después de que OpenAI se asociara con Microsoft, de la mano de algunos ex miembros de Open AI, que no estaban de acuerdo con estas negociaciones y abandonaron OpenAI. Por eso, como es de suponer, Anthropic se ha basado, desde un principio, en muchas de las investigaciones que ya se habían realizado para el ChatGPT de OpenAI.

Claude es el chabot conversacional de la Anthropic, un modelo de IA que funciona como un asistente de inteligencia artificial. Cuenta con una interfaz y un tipo de usos parecidos a los que ofrecen otros chatbots, aunque destaca por la impresionante cifra de 52.000 millones de parámetros, pudiendo soportar ventanas hasta de 100K tokens, mientras que ChatGPT opera con un máximo de 4K tokens. Gracias a su amplia capacidad de parámetros y tokens, Claude puede ser tremendamente valioso a la hora de realizar resúmenes, preguntas y respuestas, escritura creativa y colaborativa e incluso búsquedas. También, según ha declarado Anthropic, es más fácil para conversar que ChatGPT. Claude puede recibir instrucciones sobre comportamiento, tono e incluso personalidad en sus dos modalidades: Claude y Claude Instant, este último un modelo de alto rendimiento y una versión más ligera.