Dans le domaine de l’IA, les progrès sont sans précédent, avec de nouveaux développements presque chaque semaine. Les outils d’IA générative tels que ChatGPT sont désormais si populaires qu’ils sont intégrés partout.
Mais devrions-nous le faire ? Il est logique d’utiliser la technologie de l’IA pour la productivité, l’éducation et le divertissement. Toutefois, les entreprises envisagent désormais de l’intégrer directement dans nos applications de messagerie, ce qui pourrait s’avérer destructeur. Voici sept raisons de le faire.
1. Les chatbots IA ont tendance à halluciner
Si vous avez utilisé ChatGPT, Bing ou Bard, vous savez que les chatbots d’IA générative ont tendance à « halluciner ». On parle d’hallucination lorsque ces chatbots inventent des choses en raison d’un manque de données d’entraînement adéquates sur la requête demandée par l’utilisateur.
En d’autres termes, ils délivrent des informations erronées mais semblent sûrs d’eux, comme s’il s’agissait d’un fait. C’est un gros problème car de nombreuses personnes ne vérifient pas les faits lorsqu’elles utilisent un chatbot et croient qu’il est exact par défaut. C’est l’une des plus grandes erreurs à éviter lors de l’utilisation d’outils d’IA.
Lorsqu’il est placé dans des applications de messagerie, le préjudice qu’il peut causer est encore plus grand, car les gens peuvent l’utiliser pour (intentionnellement ou non) diffuser des informations erronées parmi leurs contacts et sur les médias sociaux, faire proliférer la propagande et favoriser les chambres d’écho.
2. Les gens n’aiment pas parler aux robots
Pensez à l’agacement que vous ressentez lorsque vous essayez de contacter le service clientèle d’une entreprise et que l’on vous fait parler à un chatbot plutôt qu’à un véritable cadre humain capable de comprendre les nuances de votre problème et de vous offrir des conseils appropriés.
Il en va de même pour les conversations personnelles. Imaginez que vous parliez à votre ami et qu’à mi-parcours, vous vous rendiez compte qu’il a utilisé l’IA pour répondre à vos messages pendant tout ce temps au lieu de le faire lui-même en se basant sur ses pensées et ses opinions.
Si vous êtes comme la plupart des gens, vous vous sentirez immédiatement offensé et percevrez l’utilisation de l’IA dans une conversation privée comme insensible, effrayante et même passive-agressive, comme si l’autre personne ne vous considérait pas comme digne de son temps, de son attention et de son empathie.
L’utilisation de l’IA pour rédiger des courriels, par exemple, est compréhensible puisqu’il s’agit d’une interaction professionnelle, mais son utilisation dans des conversations personnelles n’est pas quelque chose que l’on souhaite encourager. Une fois que la nouveauté de la technologie aura disparu, il deviendra impoli de l’utiliser dans ce contexte.
3. L’IA ne peut pas copier votre tonalité unique
Aujourd’hui, les outils d’IA générative vous permettent déjà de modifier la tonalité de votre message (formelle, joyeuse ou neutre) en fonction de la personne à qui vous écrivez et de l’impression que vous souhaitez donner. Magic Compose dans Google Messages, par exemple, vous permet de faire la même chose.
C’est une bonne chose, mais notez que ces tonalités sont formées à partir d’un ensemble de données d’entraînement et non de votre historique de chat personnel, de sorte qu’il est impossible de reproduire votre tonalité unique ou les emojis que vous utilisez habituellement.
Vous ne vous en souciez peut-être pas beaucoup, surtout si vous utilisez l’IA pour rédiger de simples courriels professionnels pour lesquels tout le monde utilise plus ou moins la même tonalité formelle. Mais cela a beaucoup plus d’importance que vous ne le pensez lorsque vous l’utilisez pour parler à vos amis et à votre famille sur une application de messagerie.
Tant que les outils d’IA ne vous permettront pas d’entraîner leur modèle linguistique sur la base de l’historique de vos discussions, ils ne pourront pas reproduire votre dialecte unique et vos excentricités. Cela dit, ce défi n’est pas si difficile à relever, et nous pourrions donc le voir bientôt mis en œuvre.
4. Rédiger de bonnes propositions prend du temps
L’obtention des résultats souhaités de la part d’un chatbot dépend fortement de la qualité de votre message. Si vous écrivez une mauvaise invite, vous obtiendrez une mauvaise réponse et vous devrez affiner l’invite jusqu’à ce que vous obteniez un résultat satisfaisant.
Ce processus a du sens lorsque vous souhaitez rédiger un contenu de longue durée, mais il est extrêmement inefficace lorsque vous rédigez plusieurs réponses courtes dans le cadre d’une conversation informelle.
Le temps nécessaire pour affiner vos messages-guides et obtenir des réponses utilisables sera, dans la plupart des cas, supérieur au temps qu’il vous aurait fallu pour rédiger les messages vous-même.
5. L’IA peut produire des résultats offensifs
Outre la précision, la partialité est l’un des plus gros problèmes de l’IA générative. Certaines personnes considèrent l’IA comme impartiale puisqu’elle n’a pas de motivations propres. Cependant, les personnes à l’origine de ces outils d’IA sont en fin de compte des humains avec leurs propres préjugés.
En d’autres termes, les préjugés sont intégrés au système. L’IA ne comprend pas intrinsèquement ce qui est considéré comme offensant et ce qui ne l’est pas, de sorte qu’elle peut, par exemple, être entraînée à avoir des préjugés à l’encontre de certains groupes de personnes ou de certaines cultures, produisant ainsi des résultats offensants dans le processus.
6. L’IA pourrait ne pas comprendre le sarcasme ou l’humour
La compréhension par l’IA des figures de style, telles que l’ironie et la métaphore, s’améliore au fil du temps, mais elle est encore loin de pouvoir être utilisée dans une conversation pour reconnaître l’humour. Lorsqu’on a demandé à Google’s Bard d’être sarcastique, par exemple, les résultats ont été mitigés.
Dans certains cas, il était vraiment drôle et jouait le jeu de mon sarcasme. Mais dans d’autres cas, il revenait à une réponse à l’emporte-pièce non drôle ou refusait tout simplement de participer à la conversation, en disant que comme il n’était qu’un LLM, il ne pouvait pas m’aider à répondre à ma question.
7. La dépendance à l’égard de l’IA peut conduire à une mauvaise communication
L’intégration de l’IA générative dans les applications de messagerie pose un autre problème, subtil mais important, à savoir la manière dont elle peut affecter notre capacité à communiquer. Si nous nous appuyons de plus en plus sur l’IA pour converser les uns avec les autres, cela pourrait entraver notre capacité à former notre intelligence émotionnelle et nos compétences sociales.
Ce qu’il faut retenir, c’est que plus nous confions nos besoins sociaux à l’IA, moins nous parviendrons à communiquer nos idées par des moyens organiques. En d’autres termes, plus vous utilisez l’IA pour parler à vos contacts, plus vous risquez de dégrader la qualité de vos relations.
L’IA n’est pas nécessaire pour tout
Souvent, avec l’arrivée d’une nouvelle technologie, nous sommes tellement occupés à savoir comment l’utiliser que nous oublions de nous demander si nous devrions l’utiliser en premier lieu.
S’il est tout à fait logique d’utiliser l’IA générative pour rédiger des courriels, trouver des idées ou créer des images pour des présentations, son intégration dans les applications de messagerie suscite de nombreuses critiques.
