OpenAI a récemment annoncé la possibilité pour les utilisateurs de ChatGPT d’invoquer les GPT dans les discussions. Les utilisateurs peuvent désormais invoquer directement les modèles de langage GPT dans les discussions. Cette fonctionnalité permettra aux utilisateurs de ChatGPT d’obtenir des réponses plus précises et plus rapides à leurs questions.
Réservée aux utilisateurs payants de ChatGPT, cette possibilité d’invoquer les GPT dans les discussions permettra donc à ces derniers de choisir un GPT dans une liste. En fonction de la conversation que le bot comprendra, il pourra interagir selon le contexte. Les abonnés peuvent donc invoquer les modèles de langage GPT en tapant simplement le signe arobase « @ » dans les discussions et en sélectionnant un modèle de langage GPT en fonction de leurs besoins. Les modèles de langage GPT sont capables de comprendre le contexte de la conversation et de fournir des réponses précises et intelligentes.
OpenAI permet d’invoquer les GPT dans les discussions : les conséquences possibles
Les conséquences de cette fonctionnalité sont énormes. Les utilisateurs de ChatGPT peuvent dorénavant obtenir des réponses plus précises et plus rapides à leurs questions. Les modèles de langage GPT sont capables de comprendre le contexte de la conversation et de fournir des réponses pertinentes. Cette fonctionnalité peut également aider les utilisateurs de ChatGPT à économiser du temps et de l’énergie en leur fournissant des réponses précises et rapides.
Toutefois, OpenAI doit aussi réfléchir aux différents contours de la monétisation pour les développeurs voulant rendre l’accès à leurs GPT facile. Ces précautions concerneront le volume du trafic, et la modération des bots créés.
En effet, outre le volume du trafic des GPT personnalisés qui ne représente qu’environ 2,7 % du trafic web mondial de ChatGPT avec une baisse de mois en mois, OpenAI doit chercher des voies et moyens afin de contrôler non seulement le flux de chatbots ne respectant pas ses conditions d’utilisation et de confidentialité.
Source : TechCrunch