Cette bonne nouvelle a été annoncée par Sam Altman lui-même, PDG d’Open AI, développeur de ChatGPT, dans une publication postée sur le site internet de l’entreprise :
« Nous privilégions la sécurité avant la vie privée et la liberté des adolescents »,
prévient le PDG. « Il s’agit d’une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d’une protection importante. La manière dont ChatGPT répond à un adolescent de 15 ans devrait être différente de celle dont il répond à un adulte », ajoute-t-il, dans son propos introductif. Parmi les fonctionnalités à venir, OpenAI travaille sur un système capable de détecter lorsqu’un utilisateur a moins de 18 ans.
Ainsi, si ce dernier se révèle véritablement mineur, l’application pourra le protéger contre les contenus inappropriés, tels que des propos de séduction, des mentions de suicide ou d’automutilation, « même dans un contexte d’écriture créative ». Si un cas de détresse est détecté, l’outil pourra prévenir les autorités compétentes, pour garantir la sécurité de l’utilisateur.
Un contrôle parental, en renfort
OpenAI l’admet : l’outil de détection d’âge ne sera pas parfait, et ne fera pas forcément l’unanimité auprès des utilisateurs, notamment auprès des parents. Ces derniers, en liant leurs comptes à ceux de leurs enfants, pourront instaurer un contrôle parental, s’ils le souhaitent. Ainsi, par exemple, il leur sera possible de désactiver certaines fonctionnalités de ChatGPT, de définir des heures strictes d’utilisation et même d’être prévenus en cas de danger imminent pour leurs enfants.
De quoi avoir l’esprit tranquille ?