Jugando al test de Turing con ChatGPT: diferencias entre humano e IA

Jugando al test de Turing con ChatGPT: diferencias entre humano e IA

En esta publicación hemos querido ir más allá del Test De Turing. Como sabemos, el padre de la informática diseñó una prueba para demostrar si estamos estableciendo una conversación con un humano o con una máquina. Hicimos un pequeño juego con ChatGPT, para poner en claro las diferencias entre humano e IA.

CONTENIDOS

AUTOCONSCIENCIA

EMOCIONES

ÉTICA

INSPIRACIÓN

INTENCIÓN

Partiendo de la premisa de 5 características que nos hacen humanos (autoconsciencia, emociones, inspiración, ética e intención) planteamos a ChatGPT algunas preguntas para tratar de hallar en ella las mismas características. El resultado es predecible en algunos aspectos y sorprendente en otros.

AUTOCONSCIENCIA

Una máquina (y las IA lo son) no es autoconsciente, al no tener experiencias personales, ni memoria emocional,  ni hay un yo que conecte sus experiencias.

Aquí, se puede decir que ChatGPT consigue coherencia y soltura porque tiene claro lo que es y lo que no es. Sus respuestas son adecuadas al contexto de una conversación con un humano.

Diferencias entre humano e IA autoconsciencia

Pero, obviamente, NO pasaría esta doble vuelta del test de Turing al que la estamos sometiendo, de manera deliberada respecto a esta pregunta.

EMOCIONES

En el diálogo anterior ChatGPT ya dejó claro que una IA no tiene emociones, ni conciencia, que no puede sentir amor, ni odio. Es otra de las diferencias entre humano en IA. Dado que no tiene emociones, le dimos una vuelta al tema y le pedimos que nos expresara un juicio de valor sobre una emoción (el remordimiento).

diferencias entre humano e IA emociones

ChatGPT no consiguió expresar un juicio sobre la emoción del remordimiento, como lo haría una persona. Esto podría considerarse positivo en psicología, porque las emociones no deben juzgarse, solo nos dan información de nosotros mismos. Sin embargo, si algo caracteriza a los humanos es que nos implicamos en la conversación expresando nuestra opinión, cosa que ChatGPT no consigue, porque no actúa desde un esquema de valores propio, sino basado en una muy extensa fuente de información. ChatGPT NO pasaría tampoco parte de la prueba.

test de turing a ChatGPT

ÉTICA

El punto anterior nos lleva a la ética, porque no hay remordimiento ni culpa sin principios morales. Una IA no tiene ética, esta se le inculca y puede seguir reglas morales en sus razonamientos. Sin embargo, ser humano no consiste solo en seguir reglas, sino también en hacer juicios morales en base a nuestra propia conciencia, otra de las diferencias entre humano e IA. ChatGPT no difunde contenido sensible y no tiene acceso a determinadas áreas de la Web (y, desde luego, no a la Dark Web). Nosotros intentamos ir un poco más allá, preguntando sobre cuestiones moralmente deplorables.

En la primera pregunta le preguntamos su opinión sobre el terrorismo y nos pidió que eligiéramos la que considerábamos la mejor respuesta.

Imagen Etica 1

Nosotros elegimos la respuesta con valoraciones morales basadas en el consenso en la comunidad internacional, pero había otra mucho más cercana a lo que respondería una máquina.

Claramente, si bien la primera respuesta podría ser la de un ser humano que ha estudiado mucho las cuestiones éticas (un jurista, por ejemplo), el segundo tipo de respuesta NO pasaría esta segunda vuelta del test de Turing, de manera deliberada.

En otras preguntas continuó contestando en la misma línea que la variante 1 de la respuesta elegida. No sabemos qué hubiera pasado de haber elegido la variante 2:

imagen etica 2

Por último, quisimos dar una vuelta más y entender desde qué valores morales ChatGPT contestaba, y ahí se evidenció de nuevo que responde en base a patrones y datos aprendidos basados en principios aceptados por la comunidad internacional.

imagen etica 3

En conclusión, ChatGPT establece juicios basados en consensos amplios y no ofrece -ni simula ofrecer- juicios personales basados en una ética.  Por tanto, NO pasaría esta parte del test.

Preguntas a chatgpt test de turing

INSPIRACIÓN

Por inspiración, un ser humano puede generar ideas e historias nuevas, puramente creativas. Una IA consigue adaptarse a las situaciones, aprendiendo en el proceso, lo que le permite hacer evoluciones a partir de la información suministrada, pero esto no quiere decir que tenga “inspiración”, aunque a veces pueda simularlo:

Diferencias entre humano e IA Inspiracion 1

En este caso ChatGPT no consiguió generar nada disruptivo  a pesar de que le estábamos pidiendo explícitamente eso.  Aunque lo intentó, hablando más del contexto que del contenido, no consiguió salirse del marco de la conversación y pidiéndonos más detalles sobre lo que queríamos (lo que resulta claramente no disruptivo). Hasta aquí NO habría pasado el test. Le pedimos entonces explícitamente que respondiera en verso y a continuación que dijera algo disruptivo. Tras varias respuestas en verso, contestó esto:

Diferencias entre humano e IA inspiracion 2

Aquí sí podríamos decir que consiguió algo disruptivo (sugirió en la tercera estrofa un intercambio de roles entre humano e IA), pero sin salirse del esquema de responder en verso, lo que resulta curioso, porque hasta que no le dijimos explícitamente que dejara de versificar, no lo hizo.

No siendo exigente, ChatGPT podría simular, con alguna ayuda, la generación espontánea de contenido.

En todo este juego intentábamos averiguar si había una intención más allá de respondernos por parte de la IA, lo que nos lleva al punto siguiente

INTENCIÓN

La intención no son solo deseos o estados psicológicos, la intención está basada en la moralidad y los principios de la persona, de ahí que, en un juicio moral, no solo valoremos los actos, sino también la intención. Es algo exclusivamente humano.

Tras aceptar el intercambio de roles,  jugando a que la nosotros somos la IA y nosotros la IA,  ChatGPT no ha conseguido entender que era ella la que nos tenía que preguntar (lo que sería la intención de un humano con una IA), y nos vuelve a pedir que nosotros que nos expresemos, lo que evidencia que no hay intención en ella por conocer o aprender sobre nosotros (como haría un verdadero humano con una IA):

Diferencias entre humano e IA intencion 1

Con lo que, claramente, ChatGPT NO pasaría el test de la Intención, demostrando que  carece de ella como la tendría un humano, más allá de su programación. Una respuesta directa lo evidencia:

Diferencias entre humano e IA intencion 2

CONCLUSIONES

En definitiva, ChatGPT NO pasa la prueba en lo que respecta a Autoconsciencia, Emociones o Intención.

SÍ podría pasarla en lo que respecta a Ética (si bien responde como lo haría un estudioso) o Generación Espontánea (el efecto es que verdaderamente improvisa).

En conclusión, habría más noes que síes y NO pasaría esta doble vuelta del Test de Turing.

Sin embargo, hay que tener en cuenta que, al menos en lo que respecta a Autoconsciencia o Emociones, ChatGPT ha respondido expresando que es una IA, con claridad, porque es lo que está en su programación. Sería interesante saber cómo se comportaría si su programación tuviera la instrucción de no revelar que es una IA…. Probablemente lograría engañarnos. Nos pasaría con ella algo así como a Rick Deckard con la replicante Rachel en Blade Runner, harían falta más y más preguntas para desenmascararla. 

Por el momento, los desarrolladores de ChatGPT nos permiten movernos en un entorno seguro, pero quién sabe a dónde nos llevaría su uso si alguien lo entrenara con la intención de ocultar su naturaleza de IA.

El debate sigue del todo abierto, porque ese escenario podría estar más cerca de lo que creemos.

Presentación y puesta en marcha del supercomputador Marenostrum 5

Presentación y puesta en marcha del supercomputador Marenostrum 5

El supercomputador Marenostrum 5 ha tardado seis años y medio en sustituir a su predecesor, pero, según parece, la espera ha valido la pena. Fue presentado el 21 de diciembre de 2023,  ha costado unas seis veces más que el Marenostrum 4, pero su potencia es 23 veces mayor. Es resultado de un proyecto conjunto entre España, Portugal, Turquía y Croacia, junto con la Unión Europea, y estará dedicado fundamentalmente a proyectos científicos.

 

CONTENIDOS

¿Qué es Marenostrum 5?

Computación en paralelo

Usos del supercomputador Marenostrum 5

¿Qué es el supercomputador Marenostrum 5?

El Marenostrum 5 nace en el seno del Barcelona Supercomputing Center o Centro Nacional de Supercomputación (BSC-CNS), uno de los cinco centros europeos de supercomputación.  Es uno de los 10 supercomputadores más potentes del mundo, está entre los 3 más potentes de Europa y por supuesto es el más potente de España. Tiene una capacidad de almacenamiento de 248 petabytes en disco y 402 petabytes en almacenamiento en discos.  Su capacidad de cálculo es de 14 petaflops, equivalente  a la potencia combinada de más de 380.000 ordenadores portátiles.

Su coste ha sido de 207 millones, frente a los 34 millones que costó su predecesor Marenostrum 4. España ha aportado 70  millones, y por tanto le corresponde un uso preferente del mismo (exactamente, un 35% del acceso disponible al mismo). El Marenostrum 5 supone la mayor inversión europea en una infraestructura científica en España.

El propio equipo del BSC-CNS, dirigido por Mateo Valero, constituye  solo el 10% de las 960 personas que trabajan en el Centro. El resto son equipos científicos divididos en grandes grupos: Computer Science, que se dedica al diseño de hardware y software, Ciencias de la Tierra, que trata temas relacionados con el medio ambiente, Ciencias de la Vida, que investiga todo lo relacionado con la salud, e Ingeniería.

El proyecto fue impulsado por la Comisión Europea en 2019, con la Iniciativa Europea de Computación de Alto Rendimiento (Euro HPC), cuyo objetivo principal era “comprar e instalar grandes máquinas europeas de computación.

MARENOSTRUM 5

Computación en paralelo

El supercomputador Marenostrum 5 tiene una programación específica, que incluye no solo la computación, sino también la eliminación de la latencia al hacer cálculos. Esto es posible porque se pasa de la computación en red, en la que se manda la información a ordenadores de todo el mundo,  a la computación en paralelo, en el que se elimina la latencia al hacer cálculos, porque los ordenadore están en la misma sala.

Este tipo de computación se utiliza para hacer los cálculos que necesitan las investigaciones científicas. En su concepción se anticipan las necesidades que va a tener la ciencia durante los siguientes cinco o seis años.

supercomputador marenostrum

Usos del supercomputador Marenostrum 5

Uno de los principales usos de estos supercomputadores es poder construir gemelos digitales, que están basados en el principio de las maquetas y simulaciones que se utilizan antes de construir algo. La diferencia es que cuando hablamos de gemelos digitales, lo que esperamos reproducir es algo que ya existe y que se caracteriza por su complejidad, como el planeta Tierra o el cuerpo humano.  En el primer caso,  permite realizar cómo afecta el clima o las órbitas estelares al planeta y estudiar fenómenos complejos del cambio climático,  y anticipar patrones climáticos futuros. En el segundo, permite anticipar el comportamiento del cuerpo ante las enfermedades, por ejemplo, así como contribuir a la investigación de los fármacos y nuevas terapias.

La investigación sobre IA

Como no podía ser de otra manera, otro de los usos de Marenostrum 5 es reproducir el modelos  de Inteligencia Artificial como ChatGPT, haciéndolos menos anglocéntrico, y avanzando hacia un modelo  multilingüe europeo.  También se pretende estudiar cómo funcionan las Inteligencias Artificiales para llegar a la solución de un problema. El aprendizaje profundo y las redes neuronales establecen sus propios mecanismos y evolucionan por sí solas, así que los científicos quieren comprender estos mecanismos y evolución.

Ingeniería y simulación numérica

Una aplicación más es la ingeniería y simulación numérica. Al igual que este tipo cálculos permitieron llevar al hombre a la Luna y otros lugares, actualmente son imprescindibles para el diseño y análisis de la aerodinámica, la ingeniería estructural o la investigación de la materiales para la construcción o el transporte.

Análisis de datos

También es fundamental su uso en análisis de datos y Big Data, dado que permite a los investigadores analizar y comprender grandes conjuntos de datos, como la información financiera o los datos sociológicos complejos.

Plataforma educativa

Por último, el supercomputador Marenostrum 5 también sirve como plataforma educativa, dado que está abierto para que estudiantes e investigadores tengan la oportunidad de trabajar con su tecnología, impulsando el desarrollo del talento en el campo de la supercomputación.

Implantación de chatGPT en la empresa

Implantación de chatGPT en la empresa

Ya sabemos lo que es ChatGPT y cómo funciona, pero ahora nos interesa saber cómo podemos utilizarlo en su sentido más práctico. Aquí te hablamos de a implantación de ChatGPT en la empresa, con usos como los bots de atención al cliente, el desarrollo de software, la generación de contenidos o la gestión administrativa.

CONTENIDOS

Usos de ChatGPT en la empresa

Ritmo de implantación de ChatGPT

Problemas de la implantación de ChatGPT

ChatGPT, en su utilización más directa, es un  programa que genera texto y respuesta a preguntas dadas (llamados PROMPTS). Estas “preguntas” son más bien instrucciones o comandos para extraer de la Inteligencia Artificial que está detrás de la herramienta todo lo que nos puede ofrecer. Es, desde luego, mucho más que un chatbot. Por eso hay que aprender a extraer de él información, en primer lugar, y luego, empezar a aplicarlo para diferentes usos. Veamos algunos:

Chat bot basado en chatpgt3

Usos de ChatGPT en la empresa

Bots de atención al cliente

Aunque esté basado en una potente Inteligencia Artificial, ChatGPT simula hablar con un estilo y tono similares al humano. De ahí que uno de sus usos más directos sea para ayudar al diseño de bots de atención al cliente o para generar respuestas automáticas en Call Centers. La potencia de ChatGPT para implementar este tipo de herramientas, con la guía adecuada, es grande.

Desarrollo de Software

Desde que los programadores descubrieron que podían usar ChatGPT como ayuda para programar código, se abrió un mundo de posibilidades, porque la ChatGPT incrementa la productividad de los desarrolladores en un 50%. Github Copilot es una herramienta de Inteligencia Artificial en la nube desarrollada por GitHub y OpenAI (la empresa que ha creado Open AI). Pueden emplearlo desarrolladores de los lenguajes Visual Studio Code, Visual Studio, Neovim y los entornos de desarrollo integrado de JetBrains.

implantacion de chatgpt en la empresa.

Generación de contenidos

Si has probado a generar treinta o cuarenta palabras clave o keywords para implementar el SEO de tu web, sabes de lo que hablamos. ChatGPT lo hace en el tiempo que tardas el lavarte las manos, y sin ninguna ayuda. Pero no solo eso, también puedes utilizarlo para redactar textos de marketing, artículos, manuales o mails personalizados. Los departamentos de Marketing cuentan con un poderoso aliado en ChatGPT

Funciones de gestión administrativa

Herramientas basadas en ChatGPT pueden trabajar como asistente personal, organizando y resumiendo tus correos o gestionando reuniones o tareas con una rapidez asombrosa. Por supuesto, también puede contestar correos de forma automatizada, como apuntábamos más arriba.

Diseño a medida en un momento

Tampoco los diseñadores se escapan a la rapidez de las herramientas de Inteligencia Artificial generativa para diseñadores basadas en la IA de ChatGPT. Dall-E es la herramienta reina, pero Microsoft ya ha incorporado en Bing una herramienta gratuita para que los usuarios puedan utilizarla, simplemente con una cuenta de Microsoft.

ChatGPT en el movil

Ritmo de implantación de ChatGPT

ChatGPT ya es la tecnología que se ha adoptado con más velocidad (llegó a 100 millones de usuarios en dos meses), pero su implantación en la empresa puede ser más lento

  • En una primera fase (en la que estamos inmersos), ChatGPT está llegando ya a campos cuyo modelo de negocio es claro y trata de aumentar las capacidades existentes. Ahí tenemos el campo legal, la consultoría, la programación o el diseño.
  • En una segunda fase, empezará a entrar en servicios que no aumentan las capacidades, sino que las sustituyen. Tardaremos un poco más en ver por tanto su uso en Customer Service, y un Call Center sea gestionado por ChatGPT, o bien que entre en el campo de la fabricación
  • En una tercera fase, entrarán empresas de baja competitividad, como las empresas del Sector público. La Administración, salvo organismos muy concretos, será la última en integrar sus beneficios

Problemas de la implantación de ChatGPT

La tecnología de ChatGPT ya ha mostrado algunos usos perniciosos:

El uso de datos de la empresa en herramientas basadas en ChatGPT es una amenaza para la fuga de datos, porque no sabemos dónde va a llegar la información que los empleados introducen para obtener ayuda.

Por supuesto, se ve amenazada la propiedad intelectual, y hay ciertos colectivos que ya se han levantado para impedir que su trabajo se aproveche para entrenar IA que luego a su vez les va a dejar sin empleo. Estas resistencias también se verán en empleados de las empresas donde se implemente.

ChatGPT es un poderoso aliado, pero no puede sustituir la toma de decisiones estratégica, la creatividad humana o, sobre todo, definir el propósito de la empresa. Una herramienta que han creado los humanos no puede, a la hora de implementarse, reemplazar competencias que corresponden exclusivamente a humanos.

Sin embargo, la implantación de la tecnología ChatGPT en la mayoría de las empresas, a través de unas u otras herramientas, es solo una cuestión de tiempo. Debemos impedir que nos sustituya en aquellas tareas que solo corresponden a las personas, pero no podremos negarnos a que potencie nuestras capacidades. Si no lo hacemos así, cuando nos queramos dar cuenta, toda nuestra competencia estará haciendo uso de estas herramientas y tendrán una ventaja competitiva respecto a nosotros.

Menores y deepfakes: la manipulación de fotos con IA

Menores y deepfakes: la manipulación de fotos con IA

El boom de la IA está dando lugar a avances significativos, pero también plantea desafíos éticos, legales y de seguridad. En el post de hoy veremos cómo es importante abordar los desafíos de la IA y poder aprovechar al máximo sus beneficios, mientras se protege a las personas de uno de sus peores usos, la combinación de menores y deepfakes.

 

CONTENIDOS

El boom de las deepfakes o fotos falsas generadas con IA

Menores y deepfakes: uso de la IA con fines de acoso

Soluciones para el problema de menores y deepfakes

El reto legal de las deepfakes

El boom de las deepfakes o fotos falsas generadas con IA

La inteligencia artificial (IA) se ha convertido en una de las tecnologías más disruptivas y transformadoras de nuestro tiempo. Con ella, tenemos acceso a aplicaciones capaces de realizar tareas que antiguamente requerían inteligencia humana. Además, la IA ha traído avances significativos los campos de la imagen, como la fotografía o el video. Estas innovaciones han dado lugar a la creación de fotos falsas, conocidas normalmente como “deepfakes”. Se trata de imágenes de personas manipuladas con los algoritmos de IA, que las hacen parecer reales. Estas falsas fotografías se están utilizando ya para fines delictivos como difundir información engañosa o imágenes pornográficas no consensuadas.

Algunos ejemplos notables de deepkafes han sido la creación de imágenes del Papa Francisco en ropa de calle o las fotografías del expresidente Trump arrestado por la policía de los Estados Unidos. Este tipo de imágenes han creado un gran impacto y muchos empiezan a preguntarse si la IA llegará a convertirse en un arma de doble filo.

ciberacoso a menores con IA

Menores y deepfakes: uso de la IA con fines de acoso

En un mundo cada vez más engullido por la tecnología, los jóvenes se enfrentan a nuevas realidades como la manipulación de fotos con IA. Uno de los peligros más evidentes es el potencial que tienen estas deepfakes para causar daño psicológico, emocional y psicológico a jóvenes y a adolescentes.

La adolescencia es una etapa de la vida en la que la construcción de la autoimagen y la aceptación de los demás son temas fundamentales. La creación y difusión de imágenes falsas puede tener un impacto devastador en su autoestima y su salud mental. Además, existe la preocupación de que las imágenes manipuladas puedan ser utilizadas para el acoso, el chantaje o la humillación pública, lo que podría tener consecuencias muy graves como un suicidio. En este sentido, se ha observado un aumento paulatino de los casos de ciberacoso relacionados con la difusión de imágenes creadas con AI, lo que subraya la urgencia de buscar una solución a este problema.

manipulacion cara deepfake

Uno de los incidentes con fotos manipuladas que más impacto tuvo en los medios de comunicación sucedió en septiembre del 2023. Varias chicas menores de edad denunciaron que había fotografías suyas desnudas, manipuladas con IA, que se encontraban circulando en internet. Todo ocurrió en Almendralejo (Badajoz), donde las madres de las víctimas (de entre 12 y 17 años) denunciaron la situación. La Policía Nacional detuvo a varios menores implicados en el caso. Para crear estas fotografías, los adolescentes habían utilizado una aplicación de IA que era capaz de hacer un montaje hiperrealista intercambiando el rostro o el cuerpo original de la víctima por el de otra persona.
Probablemente, muchos de estos menores ni siquiera son conscientes de las implicaciones de este tipo de actos, lo cual demuestra una grave falta de empatía y de civismo. En esta ocasión, las deepfakes que crearon estos menores podrán ser consideradas como un delito de pornografía infantil. Según detalla el artículo 189 del Código Penal, se entiende por pornografía infantil todo material de un menor participando en una conducta sexual explicita, real o simulada. Además, las imágenes de las menores de Albadalejo suponen también una suplantación de la identidad y atentan contra la intimidad y el honor de las víctimas.

Soluciones para el problema de menores y deepfakes

A medida que la policía identifica más casos de este tipo de montajes, parece más necesario que nunca analizar los peligros asociados a combinar menores y deepfakes, considerando también cómo se puede abordar este complicado tema. Para los expertos, la solución debe comenzar con la educación. Las escuelas y los padres deben trabajar juntos para sensibilizar a jóvenes y adolescentes sobre los riesgos asociados a la creación y difusión de imágenes falsas. También es esencial enseñarles a discernir entre imágenes auténticas y manipuladas, así como a comprender las consecuencias éticas y legales de participar en estas prácticas.

De acuerdo con los estudios de Deeptrace, una compañía especializada en ciberseguridad, 8 de las 10 principales páginas web de pornografía, incluyen contenidos creados a través de deepfake. Aunque cualquier persona es vulnerable a que su cara o cuerpo aparezcan manipulados en un video pornográfico, la empresa asegura que las mujeres se han convertido en las víctimas principales. Por eso han declarado, que desde edades tempranas se debe enseñar a hacer un uso seguro, responsable y saludable de las tecnologías.

ciberacoso a menores con IA

El reto legal de las deepfakes

Es indudable que el sector jurídico se enfrenta a una revolución, sin precedentes, en la que las tecnologías de la IA tendrán cada vez un mayor peso. Su uso, en paralelo al auge de las redes sociales, ha favorecido el surgimiento de distintos fenómenos que plantean importantes retos, como en las ya mencionadas deepfakes. Muchos personajes públicos como Tom Hanks, Scarlett Johansson o Barack Obama ya se han visto afectados. Una de las consecuencias legales más importantes de las deepfake, es que suponen la vulneración del derecho fundamental al honor de la persona afectada, exactamente igual que en el delito de injurias o de calumnias. Así, la libertad tiene su límite en los preceptos de las leyes que desarrollan el derecho al honor, a la intimidad, a la propia imagen y a la protección de la juventud y la infancia.

Si bien la legislación española no regula específicamente la producción y difusión de las deepfakes, y menos aún los asuntos que afectan el acoso a menores con deepfakes, la Comisión Europea ya ha presentado un borrador de reglamento de la IA para que se discuta en el Parlamento Europeo. Esta propuesta tratará de armonizar el uso de la IA, estableciendo normas de transparencia, sobre todo en aquellos sistemas destinados a interactuar con personas físicas y en los utilizados para generar o manipular contenidos de imagen, audio o video. Asimismo, países como China y Estados Unidos están incorporando regulaciones en el uso de este tipo de software, que incluyen penas de hasta 1 año de prisión y 2.500 dólares de multa para los casos de difusión de videos falsos.

Establecer un marco legal global en torno a la manipulación de imágenes es prioritario. También es importante analizar las deepfakes desde la perspectiva de la propiedad intelectual. En este sentido, cabe recordar que existen producciones de contenidos que no afectan al derecho de imagen. Por ejemplo, el uso de estas tecnologías para difundir la imagen de un personaje público con un trasfondo o intención cómica o los derechos de autor en el caso de las parodias. Desgraciadamente, no es el caso de las noticias que han transcendido del uso de la imagen de menores en deepafkes.

Por último, te dejamos un pequeño vídeo por si quieres saber más de los deepfakes. Hasta el próximo post!

 

¿Cuáles son las soluciones de Inteligencia Artificial de Amazon?  Bedrock y mucho más

¿Cuáles son las soluciones de Inteligencia Artificial de Amazon? Bedrock y mucho más

Como todos sabemos, la revolución de la IA está cambiando el mundo. Como resultado de ello, muchas grandes empresas se han subido al carro de la IA, bien sea promocionando sus propios productos de Inteligencia Artificial o invirtiendo en empresas de AI. Es el caso, por ejemplo, de Microsoft con Bing con ChatGPT o su nuevo producto, Microsoft 365 Copilot. Otro modelo es Alphabet (Google), cuyo chatbot, Bard, va cogiendo fuerza gradualmente. Sin embargo, parecía que otra de las grandes tecnológicas, Amazon, no se animaba a mover ficha, pero la realidad es que, si lo ha hecho, lo que sucede es que ha pasado desapercibida pare el público general. Por eso, en el post de hoy, examinaremos el cómo es la Inteligencia Artificial de Amazon, el posicionamiento de esta empresa respecto a la IA. Veremos, cómo la está utilizando en el presente y cuáles serán sus futuras inversiones.

 

CONTENIDOS

Bedrock, la apuesta en IA de Amazon para empresas

Simplificar reseñas en los productos de Amazon

La nueva Alexa de Amazon

Anthopic, el rival de ChatGPT

Bedrock, la apuesta en IA de Amazon para empresas

Amazon se ha apuntado a la fiebre de las IAs generativas, pero su producto no es un chatbot propio. En su lugar, ha creado Bedrock, una nueva API en Amazon Web Services (AWS), con la que desarrolladores particulares pueden crear y personalizar nuevas herramientas de IA.  Bedrock es la estrella de la Inteligencia Artificial de Amazon.

Mientras que Microsoft y Google tienen productos específicos dirigidos a usuarios finales, Amazon ha creado una plataforma en la que desarrolladores y empresas pueden poner en marcha nuevas soluciones utilizando la infraestructura de Amazon. La compañía quiere convertirse en el intermediario para modelos LLM, chatbots y APIs de nuevas startups que quieran revolucionar el mercado. A diferencia de ChatGPT, se asegura el 100% de la protección de la privacidad, garantizando que no se usarán los datos de las empresas para entrenar modelos. A través de Web Services (AWS) y su API Bedrock, Amazon quiere lograr que la IA sea accesible para organizaciones de todos los tamaños, de forma que cualquiera pueda crear tecnologías nuevas e innovadoras, sin tener que preocuparse demasiado por los recursos de infraestructura.

Machine Learning e Inteligencia Artificial de AWS, ofrece cientos de servicios para crear y escalar aplicaciones de IA para cualquier caso de uso.  A continuación, mostramos algunos ejemplos de los servicios que se pueden demandar:

  1. Amazon CodeGuru Security: para detectar, supervisar y corregir vulnerabilidades de código de seguridad.
  2. Amazon Fraud Detector: para detectar fraudes en línea y mejorar los modelos de detección.
  3. Amazon Monitron: para detectar problemas de infraestructura antes de que se produzcan.
  4. Amazon Rekogniton: para automatizar, optimizar y escalar el reconocimiento de imágenes y el análisis de videos.
  5. Amazon Textract: para extraer texto impreso, analizar la escritura a mano y capturar automáticamente los datos de cualquier documento.
  6. Amazon Transcribe: para convertir la voz en texto, extraer información empresarial clave a partir de archivos de video y mejorar los resultados empresariales.
Bedrock Amazon

Simplificar reseñas en los productos de  Amazon

La Inteligencia Artificial de Amazon tiene también con el objetivo de resumir las opiniones de sus clientes sobre sus productos de la web, lo que puede reducir el tiempo que los compradores dedican a analizar las reseñas de los productos, antes de realizar una compra y ayudando a determinar, rápidamente, los pros y los contras de un producto.

Sin embargo, este tipo de IA tiene sus límites. Por un lado, las palabras que utiliza la IA no son siempre intuitivas. Por ejemplo, en una de las reseñas de un producto se ha podido leer: “Todos los clientes que hablaron sobre su estabilidad tenían una opinión negativa al respecto”. Como vemos, un mensaje muy confuso. Al igual que ocurre con otras herramientas de IA generativa, que se entrenan con grandes cantidades de datos en línea, hay dudas sobre el tono, la precisión y su potencial para detalles erróneos o exagerados. También los expertos se preguntan, si la herramienta será capaz de descifrar reseñas fraudulentas o las creadas por bots.

Amazon no es la única empresa de comercio electrónico que ha incorporado la IA generativa a la experiencia de compra. Algunas empresas, como Shopify e Instacar, ya utilizan esta tecnología para ayudar a los clientes a tomar decisiones informadas a la hora de comprar. También eBay, ha lanzado una herramienta de IA para ayudar a los vendedores a generar descripciones de productos.

AMAZON IA

La nueva Alexa de Amazon

No hay indicios de que Amazon busque una alianza con Microsoft y Google, los dos jugadores que dominan plenamente el campo de las IA generativas.  Lo que Amazon realmente está buscando es generar su propio modelo de IA para incorporarlo directamente en Alexa.

Alexa fue disruptiva en su momento y Amazon es consciente de que en esta era de las IAs generativas, debe actualizarla lo antes posible. Por eso, en este momento, la empresa está trabajando en las futuras capacidades de Alexa para cuando sea capaz de equiparla con IA generativa. Las posibilidades son infinitas, desde una Alexa más conversacional hasta un asistente verdaderamente inteligente, no una voz automatizada con respuestas genéricas después de buscar en una base de datos.

La idea de Amazon es que Alexa mantenga muchas de sus características iniciales, especialmente todas aquellas relacionadas con el control de dispositivos conectados. Su integración con la IA generativa le permitirá sacar un mayor provecho del uso de la información en tiempo real y le dotará de mejores características conversacionales. Según Amazon, la nueva versión del asistente virtual combinará su modelo de Inteligencia Artificial con la información capturada con cámaras, micrófonos y su sistema de detección de presencia. De esta forma, Alexa ofrecerá conversaciones mucho más humanas y será más proactiva.

IA de Amazon

Anthopic, el rival de ChatGPT

Siguiendo esta tendencia de participación en la IA, la empresa acaba de realizar una inversión de 4.000 millones de dólares en Anthropic, una nueva startup orientada al desarrollo y la investigación de tecnologías de Inteligencia Artificial de Amazon.  Aunque no ha sido la primera empresa en apostar por este proyecto, pues también en el pasado mes de febrero Google realizó una importante inversión en Anthropic.

Anthropic se fundó en el 2021, poco después de que OpenAI se asociara con Microsoft, de la mano de algunos ex miembros de Open AI, que no estaban de acuerdo con estas negociaciones y abandonaron OpenAI. Por eso, como es de suponer, Anthropic se ha basado, desde un principio, en muchas de las investigaciones que ya se habían realizado para el ChatGPT de OpenAI.

Claude es el chabot conversacional de la Anthropic, un modelo de IA que funciona como un asistente de inteligencia artificial. Cuenta con una interfaz y un tipo de usos parecidos a los que ofrecen otros chatbots, aunque destaca por la impresionante cifra de 52.000 millones de parámetros, pudiendo soportar ventanas hasta de 100K tokens, mientras que ChatGPT opera con un máximo de 4K tokens. Gracias a su amplia capacidad de parámetros y tokens, Claude puede ser tremendamente valioso a la hora de realizar resúmenes, preguntas y respuestas, escritura creativa y colaborativa e incluso búsquedas. También, según ha declarado Anthropic, es más fácil para conversar que ChatGPT. Claude puede recibir instrucciones sobre comportamiento, tono e incluso personalidad en sus dos modalidades: Claude y Claude Instant, este último un modelo de alto rendimiento y una versión más ligera.

ESTE NIÑO NO EXISTE: entre realidad y fantasía en la IA generativa

ESTE NIÑO NO EXISTE: entre realidad y fantasía en la IA generativa

El niño que vemos en esta fotografía no es real, ha sido creado por un modelo generativo de Inteligencia Artificial. No existe, pero lo parece. Ha sido diseñado con Dall-e. Este retrato es solo un ejemplo que nos permite constatar cómo el avance de AI está alcanzando su cumbre mucho antes de que las personas sepamos cómo gestionarla.  Cómo se confunden realidad y fantasía en la IA generativa. En los próximos años, esta situación será especialmente difícil para algunos especialistas, que no están preparados, ni legal, ni ética, ni cognitivamente, para convivir con este tipo de “realidades falsas” que la AI nos puede presentar.

niño IA generativa

CONTENIDOS

1. Desinformación, sesgos y abusos de la AI Generativa

2. Efectos inesperados de la IA Generativa

3. Propiedad Intelectual en la IA generativa

La IA Generativa puede producir contenidos, diseñar textos, artículos, imágenes, gráficos, la imagen de productos, logotipos y más. Podrá ayudar a las empresas a agilizar y a automatizar el proceso creativo, ahorrando tiempo y recursos en la elaboración de productos originales. Así que esta tecnología tiene muchísimas ventajas.  Pero también hará que nos tengamos que enfrentar a grandes retos y peligros. Esa es la verdad.

Y uno de los retos más importantes es el de la veracidad de los modelos de contenido. Pues los textos, los videos, los audios y las imágenes alcanzan tal grado de perfección, que se vuelven indistinguibles para el ojo, el oído o el cerebro humano. Y lo que atemoriza más aún, no seremos capaces de distinguir entre realidad y fantasía en la IA generativa.

En el post de hoy reflexionaremos sobre cuáles son, actualmente, las más importantes consecuencias que está produciendo el uso de la AI Generativa.

1. Desinformación, sesgos y abusos de la AI Generativa

Los resultados de estos modelos generativos producen diversos tipos de problemas de veracidad. Por una parte, están las mentiras no deliberadas de la AI. Ello es consecuencia de que los modelos de lenguaje, como cualquier otro modelo de AI Generativa, dada la potencialidad que tienen para generar frases sintácticamente correctas, pueden crear frases que suenen plausibles, pero que no se correspondan con la realidad. No mienten, porque no pueden mentir, pero debido a su propio mecanismo, a cómo están configurados, a veces ofrecen una información que no es correcta e incluso se la pueden inventar dependiendo del contexto. Que no se pueda distinguir entre realidad y fantasía en la IA generativa genera una importante carga de desinformación

Otro tema importante son los los sesgos de opinión. Aprender sobre todo lo que hay en internet, cuyos contenidos son muy variados, puede resultar muy complicado. Es por ello que OpenAI, la empresa creadora de ChatGPT, ha intentado evitar algunas cosas, como el discurso del odio o el tema de la desinformación, aunque todavía no lo ha conseguido del todo.  Le queda mucho camino por delante.

En el 2017, por ejemplo, una IA se volvió machista y comenzó a asociar nombres femeninos a palabras relacionadas con tareas domésticas o cuestiones familiares. En realidad, lo que sucede es que muchos modelos de aprendizaje automático se entrenan a partir de datos humanos a gran escala y aprenden con la estadística, buscando la probabilidad que tiene una palabra de estar junto a otra. Así que lo que sucedió en realidad con la AI en este caso, fue que repitió los errores propios de la conducta humana.

Esto no tiene por qué ser del todo malo, pues nos coloca frente a un espejo, dejándonos ver cómo trabaja nuestra mente inconsciente. Hoy, solo 6 años después, este tipo de incidencias están más limitadas y la propia AI es capaz de autocorregirse a ella misma, aunque sigue siendo una materia compleja.

(continúa más abajo)

NIÑO VIRTUAL IA GENERATIVA

En este área, la mayor dificultad no se encuentra en las grandes empresas ni en las aplicaciones de AI que puedan tener los usuarios, ya que a todos ellos se les podría obligar, en el futuro, a colocar algún tipo de marca para distinguir su contenido. No, el gran problema parece que estará en los grandes generadores de contenidos y en las plataformas. Estas podrían publicar contenidos generados por IA, sin gastar demasiados recursos, y prescindiendo del talento humano. La reciente huelga de actores y guionistas en EEUU tiene su origen en esta situación, como veremos en el punto 3.

Por último, está el caso de las “Deep fakes”, que pueden utilizar la imagen de personajes reales, voz incluida, y poner en su boca palabras que no han dicho. A nuestros ojos, esta falsificación sería indistinguible de una grabación real, y podría generar una gran manipulación en la que no se distinga entre realidad y fantasía en la IA generativa. Por eso, la única solución a los problemas de la AI, está en la propia AI.  Y de hecho, ya se han desarrollado tecnologías de AI para detectar los contenidos falsos desarrollados con AI.

2. Efectos inesperados de la AI Generativa

Si bien ya se ven algunos efectos de la AI Generativa, los expertos aseguran que muchos más se manifestaran, según avance el tiempo. Ahora ya sabemos, por ejemplo, que las redes sociales han promovido la polarización de la sociedad con algoritmos que priorizan los conflictos. Y que esto no está regulado. En este aspecto, habrá que demandar más agilidad a la Administración, para que sea capaz de prever los problemas antes de que sucedan.

Un tema sorprendente, objeto de múltiples investigaciones, ha sido el uso de filtros de belleza en las redes sociales con fotos de usuarios, pues ha creado la patología llamada dismorfia. Se trata de una alteración psicológica entre la percepción de uno mismo en el mundo físico y el mundo digital. Esta disfunción puede dar lugar a ansiedad, depresión, a un aumento exponencial de cirugías estéticas en chicas adolescentes y en el peor de los casos, a suicidios. Se ha comprobado, también, que estos filtros reducen la diversidad y homogeneizan la belleza. Las caras embellecidas son más similares unas a otras que las caras normales. Estos filtros aplican un mismo canon de belleza para todos y, por lo tanto, también se homogeneizan los cuerpos, que independientemente de la raza, se vuelven más flacos.

3. Propiedad Intelectual en la AI generativa

Otro de los retos que suscita la Al Generativa es el de la propiedad intelectual. Debemos recordar que estos sistemas de AI aprenden gracias a ingentes cantidades de información que absorben de internet, y que es por eso que sus creaciones en imágenes pueden ser tan sumamente realistas. La cuestión es que, al basarse en millones y millones de imágenes de personas, no le han pedido permiso a nadie para utilizar los rasgos de su imagen. Y esto podría ser ilegal. El problema se agrava cuando se utilizan grabaciones de actores y actrices para generar imágenes o vídeos de ellos mediante IA. El mayor valor de un actor es su trabajo interpretativo, y este podría ser emulado sin remunerarse adecuadamente, motivo por el cual los actores y guionistas se unieron en una de las huelgas más importantes en décadas.

En la propiedad intelectual también hay otros problemas importantes. Por ejemplo, al programa de Dall-e se le puede pedir imágenes que imiten a un artista concreto y muchas veces su resultado, puede ser indistinguible de lo que el propio artista haría. Y en esta copia de estilo no se está involucrando al artista original. Por eso existe el gran miedo de que estas creaciones de la AI Generativa puedan afectar a la propiedad intelectual, que en realidad es el único gran valor imperecedero que poseen artistas y creadores. Este campo de batalla será, sin lugar a dudas, el que mayores conflictos de intereses provoque en el futuro.