Suivre une industrie aussi rapide que l’IA est une tâche difficile. Donc, jusqu’à ce qu’une IA puisse le faire pour vous, voici un résumé pratique des histoires de la semaine dernière dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes par elles-mêmes.

La plus grande nouvelle de la semaine dernière (nous retirons poliment notre histoire Anthropic de l’examen) a été l’annonce de Bedrock, le service d’Amazon qui fournit un moyen de créer des applications d’IA génératives via des modèles préformés de startups, notamment Laboratoires AI21, Anthropique et Stabilité AI. Actuellement disponible en « aperçu limité », Bedrock offre également un accès aux Titan FM (modèles de base), une famille de modèles d’IA formés en interne par Amazon.

Il est parfaitement logique qu’Amazon veuille avoir un cheval dans la course à l’IA générative. Après tout, le marché des systèmes d’IA qui créent du texte, de l’audio, de la parole et plus encore pourrait valoir plus de 100 milliards de dollars d’ici 2030, selon à Grand View Research.

Mais Amazon a un motif qui va au-delà de la conquête d’une tranche d’un nouveau marché en pleine croissance.

Dans un récent Motley Fool pièce, Timothy Green a présenté des preuves convaincantes que l’activité cloud d’Amazon pourrait ralentir. La société a enregistré une croissance des revenus de 27 % d’une année sur l’autre pour ses services cloud au troisième trimestre 2022, mais la hausse a ralenti à un taux d’environ 20 % à la fin du trimestre. Pendant ce temps, la marge d’exploitation de la division cloud d’Amazon a diminué de 4 points de pourcentage d’une année sur l’autre au cours du même trimestre, ce qui suggère qu’Amazon s’est développée trop rapidement.

Amazon a clairement de grands espoirs pour Bedrock, allant jusqu’à former les modèles internes susmentionnés avant le lancement – ​​ce qui n’était probablement pas un investissement insignifiant. Et pour que personne ne mette en doute le sérieux de l’entreprise en matière d’IA générative, Amazon n’a pas mis tous ses œufs dans le même panier. Cette semaine, il a rendu CodeWhisperer, son système qui génère du code à partir d’invites de texte, gratuit pour les développeurs individuels.

Alors, Amazon va-t-il capturer une part significative de l’espace de l’IA générative et, ce faisant, redynamiser son activité cloud ? C’est beaucoup à espérer, surtout compte tenu des risques inhérents à la technologie. Le temps nous le dira, en fin de compte, à mesure que la poussière se déposera dans l’IA générative et que des concurrents, grands et petits, émergeront.

Voici les autres titres importants de l’IA de ces derniers jours :

  • Le vaste monde de la réglementation de l’IA : Tout le monde semble avoir ses propres idées sur la façon de réglementer l’IA, et cela signifie environ 20 cadres différents dans chaque grand pays et zone économique. Natasha entre dans le vif du sujet avec cette liste exhaustive (actuellement) de cadres de réglementation (y compris des interdictions pures et simples comme l’Italie de ChatGPT) et leurs effets potentiels sur l’industrie de l’IA là où ils se trouvent. La Chine fait son propre truc, cependant.
  • Musk s’attaque à OpenAI : Non satisfait du démantèlement de Twitter, Elon Musk aurait l’intention de s’attaquer à son ancien allié OpenAI, et tente actuellement de collecter l’argent et les personnes nécessaires pour le faire. Le milliardaire occupé peut exploiter les ressources de ses plusieurs entreprises pour accélérer le travail, mais il y a de bonnes raisons d’être sceptique quant à cette entreprise, Devin écrit.
  • L’éléphant dans la pièce: Start-up de recherche en IA Anthropique vise à lever jusqu’à 5 milliards de dollars au cours des deux prochaines années pour affronter son rival OpenAI et entrer dans plus d’une douzaine d’industries majeures, selon des documents de l’entreprise obtenus par fr.techtribune.net. Dans les documents, Anthropic indique qu’il envisage de construire un « modèle frontière » – provisoirement appelé « Claude-Next » – 10 fois plus capable que l’IA la plus puissante d’aujourd’hui, mais que cela nécessitera un milliard de dollars de dépenses au cours des 18 prochains mois. .
  • Construisez votre propre chatbot : Une application appelée Poë permettra désormais aux utilisateurs de créer leurs propres chatbots en utilisant des invites combinées avec un bot existant, comme ChatGPT d’OpenAI, comme base. Lancé publiquement pour la première fois en février, Poe est le dernier produit du site Q&A Quoraqui fournit depuis longtemps aux internautes des réponses aux questions les plus recherchées sur google.
  • Au-delà de la diffusion : Bien que les modèles de diffusion utilisés par des outils populaires comme Midjourney et Stable Diffusion puissent sembler être les meilleurs que nous ayons, la prochaine chose arrive toujours – et OpenAI pourrait avoir frappé avec des «modèles de cohérence», qui peuvent déjà effectuer des tâches simples et ordre de grandeur plus rapide que les goûts de DALL-E, rapporte Devin.
  • Une petite ville avec IA : Que se passerait-il si vous remplissiez une ville virtuelle d’IA et que vous les libériez ? Des chercheurs de Stanford et de Google ont cherché à le découvrir dans une récente expérience impliquant ChatGPT. Leur tentative de créer un « simulacre crédible du comportement humain » a été couronnée de succès, selon toute apparence – les 25 IA alimentées par ChatGPT étaient de manière convaincante et étonnamment humaine dans leurs interactions.

Crédits image : Google/Université de Stanford

  • L’IA générative dans l’entreprise : Dans un morceau pour TC+, Ron écrit sur la façon dont les technologies transformatrices comme ChatGPT pourraient être appliquées aux applications d’entreprise que les gens utilisent quotidiennement. Il note, cependant, que pour y parvenir, il faudra de la créativité pour concevoir les nouvelles interfaces alimentées par l’IA de manière élégante, afin qu’elles ne se sentent pas verrouillées.

https://techcrunch.com/2023/04/13/chatgpt-everything-you-need-to-know-about-the-ai-powered-chatbot/?utm_source=internal&utm_medium=WPunit


Plus d’apprentissages automatiques

meta drawings

Crédits image : Méta

Méta open source une expérience populaire qui permettaient aux gens d’animer des dessins de personnes, aussi grossiers soient-ils. C’est l’une de ces applications inattendues de la technologie qui est à la fois délicieuse et totalement triviale. Pourtant, les gens l’ont tellement aimé que Meta laisse le code s’exécuter gratuitement afin que n’importe qui puisse l’intégrer à quelque chose.

Une autre méta-expérience, appelée Segmenter n’importe quoi, a fait un éclaboussement étonnamment important. Les LLM sont si chauds en ce moment qu’il est facile d’oublier la vision par ordinateur – et même alors, c’est une partie spécifique du système à laquelle la plupart des gens ne pensent pas. Mais la segmentation (identifier et décrire les objets) est un élément extrêmement important de toute application robotique, et comme l’IA continue d’infiltrer « le monde réel », il est plus important que jamais qu’elle puisse… eh bien, segmenter n’importe quoi.

segmentcows

Crédits image : Méta

Le professeur Stuart Russell a déjà honoré la scène fr.techtribune.net, mais nos conversations d’une demi-heure ne font qu’effleurer la surface du terrain. Heureusement, l’homme donne régulièrement des conférences, des conférences et des cours sur le sujet, qui, en raison de sa longue familiarité avec celui-ci, sont très fondés et intéressants, même s’ils ont des noms provocateurs comme « comment ne pas laisser l’IA détruire le monde ».

Vous devriez consulter cette présentation récente, présentée par un autre ami de TC, Ken Goldberg :