banner
Centro de Noticias
Amplios conocimientos en ventas y producción.

La era de la IA: todo lo que necesitas saber sobre la inteligencia artificial

Sep 23, 2023

La IA está apareciendo aparentemente en todos los rincones de la vida moderna, desde la música y los medios hasta los negocios y la productividad, incluso en las citas. Hay tantas cosas que puede ser difícil mantenerse al día, así que siga leyendo para averiguarlo todo, desde los últimos grandes desarrollos hasta los términos y las empresas que necesita saber para mantenerse al día en este campo de rápido movimiento.

Para empezar, asegurémonos de que todos estamos en la misma página: ¿qué es la IA?

La inteligencia artificial, también llamada aprendizaje automático, es un tipo de sistema de software basado en redes neuronales, una técnica que en realidad fue pionera hace décadas pero que ha florecido recientemente gracias a nuevos y poderosos recursos informáticos. AI ha permitido un reconocimiento efectivo de voz e imagen, así como la capacidad de generar imágenes y voz sintéticas. Y los investigadores están trabajando arduamente para hacer posible que una IA navegue por la web, reserve boletos, modifique recetas y más.

Oh, pero si estás preocupado por un aumento de las máquinas tipo Matrix, no lo estés. ¡Hablaremos de eso más tarde!

Nuestra guía de IA tiene tres partes principales, cada una de las cuales actualizamos regularmente y se puede leer en cualquier orden:

Al final de este artículo, estará tan actualizado como cualquiera puede esperar estar en estos días. También lo actualizaremos y expandiremos a medida que avancemos en la era de la IA.

Créditos de imagen:Andrii Shyp / Getty Images

Una de las cosas interesantes de la IA es que, aunque los conceptos básicos datan de hace más de 50 años, pocos de ellos eran familiares incluso para los expertos en tecnología antes de hace muy poco tiempo. Entonces, si te sientes perdido, no te preocupes, todos lo están.

Y una cosa que queremos dejar en claro desde el principio: aunque se llama "inteligencia artificial", ese término es un poco engañoso. No existe una definición única de inteligencia, pero lo que hacen estos sistemas está definitivamente más cerca de las calculadoras que del cerebro. La entrada y salida de esta calculadora es mucho más flexible. Puede pensar en la inteligencia artificial como el coco artificial: es inteligencia de imitación.

Dicho esto, estos son los términos básicos que encontrará en cualquier discusión sobre IA.

Nuestros cerebros están hechos en gran parte de células interconectadas llamadas neuronas, que se unen para formar redes complejas que realizan tareas y almacenan información. Se ha intentado recrear este increíble sistema en software desde los años 60, pero la potencia de procesamiento requerida no estuvo ampliamente disponible hasta hace 15 o 20 años, cuando las GPU permitieron que florecieran las redes neuronales definidas digitalmente. En el fondo, son solo muchos puntos y líneas: los puntos son datos y las líneas son relaciones estadísticas entre esos valores. Al igual que en el cerebro, esto puede crear un sistema versátil que rápidamente toma una entrada, la pasa a través de la red y produce una salida. Este sistema se llama modelo.

El modelo es la colección real de código que acepta entradas y devuelve salidas. La similitud en la terminología con un modelo estadístico o un sistema de modelado que simula un proceso natural complejo no es accidental. En IA, el modelo puede referirse a un sistema completo como ChatGPT, o prácticamente cualquier construcción de IA o aprendizaje automático, independientemente de lo que haga o produzca. Los modelos vienen en varios tamaños, lo que significa tanto la cantidad de espacio de almacenamiento que ocupan como la potencia computacional que necesitan para ejecutarse. Y estos dependen de cómo se entrena el modelo.

Para crear un modelo de IA, las redes neuronales que forman la base del sistema están expuestas a una gran cantidad de información en lo que se denomina conjunto de datos o corpus. Al hacerlo, estas redes gigantes crean una representación estadística de esos datos. Este proceso de entrenamiento es la parte más intensiva en computación, lo que significa que lleva semanas o meses (puede durar todo el tiempo que quiera) en enormes bancos de computadoras de alta potencia. La razón de esto es que no solo las redes son complejas, sino que los conjuntos de datos pueden ser extremadamente grandes: miles de millones de palabras o imágenes que deben analizarse y representarse en el modelo estadístico gigante. Por otro lado, una vez que el modelo termina de cocinarse, puede ser mucho más pequeño y menos exigente cuando se usa, un proceso llamado inferencia.

Créditos de imagen:Google

Cuando el modelo realmente está haciendo su trabajo, lo llamamos inferencia, en gran medida en el sentido tradicional de la palabra: establecer una conclusión razonando sobre la evidencia disponible. Por supuesto, no es exactamente "razonar", sino conectar estadísticamente los puntos en los datos que ha ingerido y, de hecho, predecir el próximo punto. Por ejemplo, al decir "Completa la siguiente secuencia: rojo, naranja, amarillo...", encontraría que estas palabras corresponden al comienzo de una lista que ha ingerido, los colores del arcoíris, e infiere el siguiente elemento hasta que produce el resto de esa lista. La inferencia es generalmente mucho menos costosa desde el punto de vista computacional que el entrenamiento: piense en ello como mirar un catálogo de tarjetas en lugar de ensamblarlo. Los modelos grandes aún deben ejecutarse en supercomputadoras y GPU, pero los más pequeños pueden ejecutarse en un teléfono inteligente o algo aún más simple.

Todo el mundo habla de IA generativa, y este término amplio solo significa un modelo de IA que produce un resultado original, como una imagen o un texto. Algunas IA resumen, algunas reorganizan, algunas identifican, etc., pero una IA que realmente genera algo (ya sea que "crea" o no es discutible) es especialmente popular en este momento. ¡Solo recuerda que el hecho de que una IA haya generado algo no significa que sea correcto, ni siquiera que refleje la realidad en absoluto! Sólo que no existía antes de que lo pidieras, como un cuento o un cuadro.

El gran simulador

Más allá de lo básico, estos son los términos de IA que son más relevantes aquí a mediados de 2023.

La forma de IA más influyente y versátil disponible en la actualidad, los grandes modelos de lenguaje se entrenan en casi todo el texto que compone la web y gran parte de la literatura en inglés. Ingerir todo esto da como resultado un modelo de base (sigue leyendo) de enorme tamaño. Los LLM pueden conversar y responder preguntas en lenguaje natural e imitar una variedad de estilos y tipos de documentos escritos, como lo demuestran ChatGPT, Claude y LLaMa. Si bien estos modelos son innegablemente impresionantes, se debe tener en cuenta que siguen siendo motores de reconocimiento de patrones, y cuando responden, es un intento de completar un patrón que ha identificado, ya sea que ese patrón refleje o no la realidad. Los LLM con frecuencia alucinan en sus respuestas, a las que llegaremos en breve.

Si desea obtener más información sobre LLM y ChatGPT, ¡tenemos un artículo completo por separado sobre eso!

Entrenar un modelo enorme desde cero en grandes conjuntos de datos es costoso y complejo, por lo que no querrá tener que hacerlo más de lo necesario. Los modelos de base son los más grandes desde cero que necesitan supercomputadoras para funcionar, pero se pueden recortar para que quepan en contenedores más pequeños, generalmente reduciendo la cantidad de parámetros. Puede pensar en ellos como el total de puntos con los que el modelo tiene que trabajar, y en estos días puede ser de millones, miles de millones o incluso billones.

Un modelo base como GPT-4 es inteligente, pero también es generalista por diseño: absorbió todo, desde Dickens hasta Wittgenstein y las reglas de Dungeons & Dragons, pero nada de eso es útil si desea que lo ayude a escribir una carta de presentación para tu currículum. Afortunadamente, los modelos se pueden afinar brindándoles un poco de capacitación adicional utilizando un conjunto de datos especializado, por ejemplo, unas miles de solicitudes de empleo que están por ahí. Esto le da al modelo una idea mucho mejor de cómo ayudarlo en ese dominio sin desechar el conocimiento general que ha recopilado del resto de sus datos de entrenamiento.

El aprendizaje de refuerzo a partir de la retroalimentación humana, o RLHF, es un tipo especial de ajuste fino del que escuchará mucho: utiliza datos de humanos que interactúan con el LLM para mejorar sus habilidades de comunicación.

A partir de un artículo sobre una técnica avanzada de posdifusión, puede ver cómo se puede reproducir una imagen incluso a partir de datos con mucho ruido.

La generación de imágenes se puede hacer de muchas maneras, pero, con mucho, la más exitosa hasta el momento es la difusión, que es la técnica en el corazón de Stable Diffusion, Midjourney y otras IA generativas populares. Los modelos de difusión se entrenan mostrándoles imágenes que se degradan gradualmente al agregar ruido digital hasta que no queda nada del original. Al observar esto, los modelos de difusión también aprenden a hacer el proceso a la inversa, agregando gradualmente detalles al ruido puro para formar una imagen definida arbitrariamente. Ya estamos comenzando a ir más allá de esto para las imágenes, pero la técnica es confiable y relativamente bien entendida, así que no espere que desaparezca pronto.

Originalmente, esto era un problema de ciertas imágenes en el entrenamiento que se deslizaban hacia una salida no relacionada, como edificios que parecían estar hechos de perros debido a una sobreprevalencia de perros en el set de entrenamiento. Ahora se dice que una IA está alucinando cuando, debido a que tiene datos insuficientes o contradictorios en su conjunto de entrenamiento, simplemente inventa algo.

Esto puede ser un activo o un pasivo; una IA a la que se le pide que cree arte original o incluso derivado está alucinando con su resultado; Se le puede pedir a un LLM que escriba un poema de amor al estilo de Yogi Berra, y lo hará felizmente, a pesar de que tal cosa no existe en ninguna parte de su conjunto de datos. Pero puede ser un problema cuando se desea una respuesta fáctica; los modelos presentarán con confianza una respuesta que es mitad real, mitad alucinación. En la actualidad, no existe una manera fácil de saber cuál es cuál, excepto comprobarlo usted mismo, porque el modelo en sí mismo no sabe qué es "verdadero" o "falso", solo está tratando de completar un patrón lo mejor que puede.

La Inteligencia Artificial General, o IA fuerte, no es realmente un concepto bien definido, pero la explicación más simple es que es una inteligencia que es lo suficientemente poderosa no solo para hacer lo que la gente hace, sino para aprender y mejorar como lo hacemos nosotros. A algunos les preocupa que este ciclo de aprendizaje, integración de esas ideas y luego aprendizaje y crecimiento más rápido se perpetúe a sí mismo y dé como resultado un sistema superinteligente que es imposible de restringir o controlar. Algunos incluso han propuesto retrasar o limitar la investigación para prevenir esta posibilidad.

Es una idea aterradora, claro, y películas como The Matrix y Terminator han explorado lo que podría suceder si la IA se sale de control e intenta eliminar o esclavizar a la humanidad. Pero estas historias no se basan en la realidad. La apariencia de inteligencia que vemos en cosas como ChatGPT es un acto impresionante, pero tiene poco en común con el razonamiento abstracto y la actividad dinámica de múltiples dominios que asociamos con la inteligencia "real". Si bien es casi imposible predecir cómo progresarán las cosas, puede ser útil pensar en AGI como algo así como un viaje espacial interestelar: todos entendemos el concepto y aparentemente estamos trabajando para lograrlo, pero al mismo tiempo estamos increíblemente lejos de lograr algo parecido. Y debido a los inmensos recursos y los avances científicos fundamentales necesarios, ¡nadie lo logrará repentinamente por accidente!

Es interesante pensar en AGI, pero no tiene sentido tomar prestados problemas cuando, como señalan los comentaristas, AI ya presenta amenazas reales y consecuentes hoy a pesar de sus limitaciones y, de hecho, en gran parte debido a ellas. Nadie quiere Skynet, pero no se necesita una superinteligencia armada con armas nucleares para causar un daño real: la gente está perdiendo sus trabajos y cayendo en engaños hoy. Si no podemos resolver esos problemas, ¿qué posibilidades tenemos contra un T-1000?

Los especialistas en ética responden a la carta de 'Pausa de IA' que dicen que 'ignora los daños reales'

Créditos de imagen:Leon Neal / Getty Images

Si hay un nombre familiar en AI, es este. OpenAI comenzó como su nombre lo indica, una organización con la intención de realizar investigaciones y proporcionar los resultados de manera más o menos abierta. Desde entonces, se ha reestructurado como una empresa con fines de lucro más tradicional que brinda acceso a sus modelos de lenguaje avanzados como ChatGPT a través de API y aplicaciones. Está encabezado por Sam Altman, un multimillonario tecnotópico que, sin embargo, ha advertido sobre los riesgos que podría presentar la IA. OpenAI es el líder reconocido en LLM, pero también realiza investigaciones en otras áreas.

Como era de esperar, Microsoft ha realizado una buena parte del trabajo en la investigación de la IA, pero al igual que otras empresas, más o menos no ha logrado convertir sus experimentos en productos importantes. Su movimiento más inteligente fue invertir temprano en OpenAI, lo que le valió una asociación exclusiva a largo plazo con la empresa, que ahora impulsa su agente conversacional Bing. Aunque sus propias contribuciones son menores y de aplicación menos inmediata, la empresa tiene una presencia investigadora considerable.

Conocido por sus lanzamientos a la luna, Google de alguna manera perdió el tren en la IA a pesar de que sus investigadores literalmente inventaron la técnica que condujo directamente a la explosión de la IA actual: el transformador. Ahora está trabajando duro en sus propios LLM y otros agentes, pero claramente se está poniendo al día después de gastar la mayor parte de su tiempo y dinero durante la última década impulsando el concepto obsoleto de "asistente virtual" de IA. El CEO Sundar Pichai ha dicho repetidamente que la compañía se está alineando firmemente detrás de la IA en búsqueda y productividad.

Después de que OpenAI se alejó de la apertura, los hermanos Dario y Daniela Amodei lo abandonaron para iniciar Anthropic, con la intención de desempeñar el papel de una organización de investigación de IA abierta y éticamente considerada. Con la cantidad de efectivo que tienen disponible, son un serio rival para OpenAI incluso si sus modelos, como Claude, aún no son tan populares o conocidos.

Créditos de imagen:Bryce Durbin / TechCrunch

Controvertido pero inevitable, Stability representa la escuela de código abierto de implementación de IA de "haz lo que quieras", aspirando todo en Internet y haciendo que los modelos generativos de IA que entrena estén disponibles gratuitamente si tienes el hardware para ejecutarlo. Esto está muy en línea con la filosofía de "la información quiere ser libre", pero también ha acelerado proyectos éticamente dudosos como generar imágenes pornográficas y usar propiedad intelectual sin consentimiento (a veces al mismo tiempo).

Musk, que no debe quedarse fuera, ha hablado abiertamente sobre sus temores con respecto a la IA fuera de control, así como algunas uvas amargas después de que contribuyó a OpenAI desde el principio y tomó una dirección que no le gustó. Si bien Musk no es un experto en este tema, como de costumbre, sus travesuras y comentarios provocan respuestas generalizadas (fue uno de los firmantes de la carta de "pausa de IA" mencionada anteriormente) y está tratando de iniciar su propio equipo de investigación.

El fabricante de GPU, Nvidia, estaba vendiendo bien a los jugadores y mineros de criptomonedas, pero la industria de la IA puso la demanda de su hardware a toda marcha. La compañía ha capitalizado hábilmente esto y el otro día rompió la capitalización de mercado simbólica (pero intensamente) de un billón de dólares cuando sus acciones alcanzaron los $ 413. No muestran signos de desaceleración, como lo mostraron recientemente en Computex...

Entre una docena o dos anuncios en Computex en Taipei, el CEO de Nvidia, Jensen Huang, habló sobre el superchip Grace Hopper de la compañía para computación acelerada (su terminología) y demostró la IA generativa que, según afirmó, podría convertir a cualquiera en desarrollador.

Altman estuvo recientemente asesorando al gobierno de EE. UU. sobre la política de inteligencia artificial, aunque algunos vieron esto como dejar que el zorro establezca las reglas del gallinero. Los diversos organismos normativos de la UE también están buscando aportes y Altman ha estado haciendo una gran gira, advirtiendo simultáneamente contra la regulación excesiva y los peligros de la IA sin restricciones. Si estas perspectivas te parecen opuestas… no te preocupes, no eres el único.

Les echamos a perder esta noticia cuando publicamos los detalles de esta recaudación de fondos y el plan por adelantado, pero Anthropic ahora es oficialmente $ 450 millones más rico y está trabajando arduamente en el sucesor de Claude y sus otros modelos. Está claro que el mercado de la IA es lo suficientemente grande como para que haya espacio en la parte superior para algunos proveedores importantes, si tienen el capital para llegar allí.

La plataforma de redes sociales de video Tiktok está probando una nueva IA conversacional que puede preguntar sobre lo que quiera, incluido lo que está viendo. La idea es que, en lugar de simplemente buscar más videos de "aullidos de perros esquimales", podrías preguntarle a Tako "¿por qué aúllan tanto los perros esquimales?". y le dará una respuesta útil y le indicará más contenido para ver.

Después de invertir cientos de millones en OpenAI, Microsoft está decidido a obtener el valor de su dinero. Ya está integrado GPT-4 en su plataforma de búsqueda Bing, pero ahora esa experiencia de chat de Bing estará disponible, de hecho, probablemente inevitable, en cada máquina con Windows 11 a través de una barra lateral derecha en todo el sistema operativo.

Google se está poniendo al día en el mundo de la IA y, aunque está dedicando considerables recursos para hacerlo, su estrategia aún es un poco turbia. Caso en cuestión: su evento I/O 2023 estuvo lleno de características experimentales que pueden o no llegar a una audiencia amplia. Pero definitivamente están presionando toda la cancha para volver al juego.

Primero, siguiente y último Créditos de imagen: Créditos de imagen: Créditos de imagen: Créditos de imagen: