L’intelligence artificielle est un monde profond et alambiqué. Les scientifiques qui travaillent dans ce domaine comptent souvent sur le jargon et le jargon pour expliquer sur quoi ils travaillent. En conséquence, nous devons souvent utiliser ces termes methods dans notre couverture de l’industrie de l’intelligence artificielle. C’est pourquoi nous avons pensé qu’il serait utile de créer un glossaire avec des définitions de certains des mots et des phrases les plus importants que nous utilisons dans nos articles.
Nous mettrons régulièrement à jour ce glossaire pour ajouter de nouvelles entrées alors que les chercheurs découvrent continuellement de nouvelles méthodes pour pousser la frontière de l’intelligence artificielle tout en identifiant les risques de sécurité émergents.
Un agent de l’IA fait référence à un outil qui utilise les applied sciences de l’IA pour effectuer une série de tâches en votre nom – au-delà de ce qu’un chatbot IA plus basique pourrait faire – comme le dépôt des dépenses, la réservation de billets ou une desk dans un restaurant, ou même l’écriture et le maintien du code. Cependant, comme nous l’avons expliqué avantil y a beaucoup de pièces mobiles dans cet espace émergent, donc différentes personnes peuvent signifier différentes choses lorsqu’ils se réfèrent à un agent d’IA. L’infrastructure est également en cours de development pour fournir des capacités envisagées. Mais le idea de base implique un système autonome qui peut s’appuyer sur plusieurs systèmes d’IA pour effectuer des tâches en plusieurs étapes.
Compte tenu d’une query easy, un cerveau humain peut répondre sans même y penser trop – des choses comme «quel animal est plus grand entre une girafe et un chat?» Mais dans de nombreux cas, vous avez souvent besoin d’un stylo et d’un papier pour trouver la bonne réponse automotive il y a des étapes intermédiaires. Par exemple, si un fermier a des poulets et des vaches, et ensemble, il a 40 têtes et 120 jambes, vous devrez peut-être écrire une équation easy pour trouver la réponse (20 poulets et 20 vaches).
Dans un contexte d’IA, le raisonnement de la chaîne de pensées pour les modèles de gros langues signifie décomposer un problème en étapes intermédiaires plus petites pour améliorer la qualité du résultat last. Il faut généralement plus de temps pour obtenir une réponse, mais la réponse est plus inclined d’être correcte, en particulier dans un contexte logique ou codage. Les modèles de raisonnement dits sont développés à partir de modèles de grande langue traditionnels et optimisés pour la pensée de la chaîne de pensées grâce à l’apprentissage du renforcement.
(Voir: Modèle de grande langue)
Un sous-ensemble d’apprentissage automatique d’auto-amélioration dans lequel les algorithmes d’IA sont conçus avec une construction de réseau neuronal artificiel multicouche (ANN). Cela leur permet de créer des corrélations plus complexes par rapport aux systèmes basés sur l’apprentissage automatique plus simples, tels que des modèles linéaires ou des arbres de décision. La construction des algorithmes d’apprentissage en profondeur s’encourage des voies interconnectées des neurones dans le cerveau humain.
Les AIS en profondeur sont capables d’identifier les caractéristiques importantes des données elles-mêmes, plutôt que d’obliger les ingénieurs humains à définir ces caractéristiques. La construction prend également en cost les algorithmes qui peuvent apprendre des erreurs et, grâce à un processus de répétition et d’ajustement, d’améliorer leurs propres sorties. Cependant, les systèmes d’apprentissage en profondeur nécessitent beaucoup de factors de données pour donner de bons résultats (des thousands and thousands ou plus). Il faut également généralement plus de temps pour former l’apprentissage en profondeur par rapport aux algorithmes d’apprentissage automatique plus simples – les coûts de développement ont donc tendance à être plus élevés.
(Voir: Réseau neuronal)
Cela signifie une formation plus approfondie d’un modèle d’IA qui vise à optimiser les performances pour une tâche ou une zone plus spécifique que ce qui était auparavant un level focal de sa formation – généralement en se nourrissant de nouvelles données spécialisées (c’est-à-dire axées sur les tâches).
De nombreuses startups d’IA prennent des modèles de langue importants comme level de départ pour construire un produit business, mais en lice pour amplifier l’utilité pour un secteur ou une tâche cible en complétant les cycles de formation antérieurs avec des réglages fins en fonction de leurs propres connaissances et experience spécifiques au domaine.
(Voir: Modèle de grande langue (LLM))
Les modèles de grands langues, ou LLMS, sont les modèles d’IA utilisés par les assistants d’IA populaires, tels que Chatte, Claude, Gémeaux de Google, Meta’s Ai Llama, Microsoft Copilotou Le chat de Mistral. Lorsque vous discutez avec un assistant AI, vous interagissez avec un modèle grand langage qui traite votre demande directement ou à l’aide de différents outils disponibles, tels que la navigation Internet ou les interprètes de code.
Les assistants AI et les LLM peuvent avoir des noms différents. Par exemple, GPT est le modèle grand langage d’Openai et Chatgpt est le produit assistant AI.
Les LLM sont des réseaux de neurones profonds en milliards de paramètres numériques (ou des poids, voir ci-dessous) qui apprennent les relations entre les mots et les phrases et créent une représentation du langage, une sorte de carte multidimensionnelle des mots.
Ceux-ci sont créés en codant pour les modèles qu’ils trouvent dans des milliards de livres, d’articles et de transcriptions. Lorsque vous invitez un LLM, le modèle génère le modèle le plus possible qui correspond à l’invite. Il évalue ensuite le mot suivant le plus possible après le dernier en fonction de ce qui a été dit auparavant. Répétez, répétez et répétez.
(Voir: Réseau neuronal)
Le réseau neuronal fait référence à la construction algorithmique multicouche qui sous-tend l’apprentissage en profondeur – et, plus largement, l’ensemble des outils d’IA génératifs après l’émergence de modèles de gros langues.
Bien que l’idée de s’inspirer des voies densément interconnectées du cerveau humain en tant que construction de conception pour les algorithmes de traitement des données remonte aux années 40, c’est la montée beaucoup plus récente du matériel de traitement graphique (GPU) – through l’industrie du jeu vidéo – qui a vraiment débloqué la puissance de la théorie. Ces puces se sont avérées bien adaptées aux algorithmes de formation avec beaucoup plus de couches que ce qui était potential dans les époques antérieures – permettant aux systèmes d’IA basés sur le réseau neuronal d’obtenir de bien meilleures performances dans de nombreux domaines, que ce soit pour la reconnaissance vocale, la navigation autonome ou la découverte de médicaments.
(Voir: Modèle de grande langue (LLM))
Les poids sont au cœur de l’entraînement en IA automotive ils déterminent l’significance (ou le poids) accordé à différentes caractéristiques (ou variables d’entrée) dans les données utilisées pour la formation du système – façonnant ainsi la sortie du modèle d’IA.
Autrement dit, les poids sont des paramètres numériques qui définissent ce qui est le plus saillant dans un ensemble de données pour la tâche de formation donnée. Ils atteignent leur fonction en appliquant une multiplication aux entrées. L’entraînement du modèle begin généralement par des poids qui sont assignés au hasard, mais au fur et à mesure que le processus se déroule, les poids s’ajustent automotive le modèle cherche à arriver à une sortie qui correspond plus étroitement à la cible.
Par exemple, un modèle d’IA pour prédire les prix des maisons formés sur les données immobilières historiques pour un emplacement cible pourrait inclure des poids pour des fonctionnalités telles que le nombre de chambres et de salles de bains, que ce soit une propriété détachée, semi-détachée, si elle a ou non un parking, un storage, and so forth.
En fin de compte, les poids que le modèle attache à chacune de ces entrées reflète la quantité d’affect de la valeur d’une propriété, sur la base de l’ensemble de données donné.