Apple Intelligence a été annoncé en juin 2024 lors de la WWDC et est utilisable aux USA depuis fin octobre 2024. Il est temps de faire un état des lieux des IA d’Apple avant son arrivée en France en avril.
Apple Intelligence est un nom qui englobe un ensemble d’outils boostés à l'intelligence artificielle. Avant de pouvoir en profiter au pays de Baudelaire, faisons un tour d’horizon et comparons les solutions de Cupertino avec la concurrence.
Aide pour les textes
Les outils de type LLM, comme ChatGPT, ont démontré leur utilité pour tout ce qui textuel, de la reformulation au résumé (avec des limites, évidemment). Apple Intelligence permet de reprendre n’importe quel texte dans une application native et d’avoir de l’aide pour l’améliorer.
Interface qui s'affiche pour vous aider à mieux écrire avec Apple Intelligence.
Pendant l’écriture, un bouton Apple Intelligence apparait et affiche les options suivantes :
Informel : réécrit le message de manière plus décontracté
Professionel : plus formel
Concis : reprend ce que vous avez écrit mais en moins long
Résumé : fait un résumé du texte sélectionné
Points clés : ressort les idées fortes du texte
Liste : fait une liste de points clés du texte sélectionné
Tableau : fait un beau tableau à partir de données brutes sous forme de texte (malheureusement, cela ne marche pas sur les documents trop longs).
Vous avez aussi deux gros boutons Relecture et Réécriture, et vous pouvez faire une demande de modification. Bref, rien de nouveau pour ceux qui utilisent des IA similaires à ChatGPT. Il est aussi possible de faire un résumé d’une note dans l’application éponyme ou d’une page web dans Safari.
Les concurrents Google Gemini et Galaxy AI proposent des services similaires. Samsung a une implémentation un peu différente : son IA est intégrée dans le clavier, permettant de l’utiliser partout dans le système.
Le futur dystopien que nous promet l'IA.
La différence entre Apple et ses concurrents est au niveau de l’implémentation : tout est fait sur l’appareil, sans aucune demande à un serveur distant. Cela fonctionne assez bien malgré tout, sans latence. Apple appuie sur ce point fortement dans sa communication, faisant prévaloir les avantages au niveau de la vie privée ainsi que pour le bien de l’environnement.
De manière générale, ces aides pour le texte fonctionnent bien et Apple a bien rattrapé son retard. Il serait intéressant que l’on puisse l’utiliser partout dans le système, à l’instar de ce que fait Samsung.
Siri et les assistants
Cela se gâte rapidement avec Siri. Bien que l’assistant d’Apple a été dévoilé comme tout nouveau, il n’en est rien. Il suffit de l’utiliser deux minutes pour s’en rendre compte. Cela est pour moi un échec cuisant, d’autant plus que Siri a un tout nouveau logo et une nouvelle animation, faisant croire au public qu’il y a un vrai changement.
Nouvelle animation, nouveau logo mais toujours ce mauvais Siri.
Naturellement, un utilisateur voyant Apple Intelligence partout, avec la nouvelle interface de Siri, est en droit d’attendre un assistant totalement revu, répondant de manière similaire à Gemini ou ChatGPT. Il n’en est rien. De plus, la nouvelle version sera en retard. On nous promet beaucoup de choses, comme des tutoriels faits par Siri pour savoir comment faire une action sur l’iPhone, ce qui serait très pratique, mais j’y croirai quand je le verrai.
De leur côté, la concurrence accélère. Google fait évoluer Gemini régulièrement, avec par exemple Gemini Live qui permet de parler de manière naturelle avec l’IA, comme ChatGPT. Apple s’en rend compte d’ailleurs car Gemini va sans doute être intégrée à l’iPhone.
Tant mieux, mais cela ressemble un peu à un aveu de faiblesse. Cela rappelle, d’une certaine manière, l’échec d’Apple Maps avec un Tim Cook qui s’excuse et indique que Google Maps et Waze sont disponibles sur iPhone.
Apple doit faire beaucoup mieux.
Résumé des notifications
Autre élément d’Apple Intelligence, le résumé des notifications est censé nous aider à gérer la grande quantité de notifications générée tous les jours. Par exemple, en mettant tout en haut de la liste les notifications jugées les plus importantes, comme celles concernant les messages des proches.
De plus, Apple Intelligence fait un résumé des notifications aux messages les plus longs (et les plus nombreux). Certains trouvent cela très utile, d’autres moins. Pour ma part, à plusieurs reprises, les résumés n’ont pas réussi à traduire la réalité de la notification, et parfois même le résumé avait un sens contraire au message. Même si c’est rare, cela me pousse à toujours lire le message original. Du coup, à quoi ça sert si, au final, je dois lire deux messages au lieu d’un ?
Le résumé des notifications est visible grâce à la petite flèche juste avant le message, indiquant qu'il a été résumé par Apple Intelligence.
Je ne suis pas le seul à avoir rencontré ce problème, la BBC s’en est plainte auprès d’Apple. Résultat : les résumés de notification ont été désactivés pour les applications d’actualité, l’interface a été modifiée et il est possible de le désactiver application par application.
C’est un vrai camouflet pour Apple qui essaie de se défendre comme elle peut. En effet, il est indiqué qu’Apple Intelligence est en beta et qu’il y aura des mises à jour constantes pour l’améliorer. Cela m’étonne beaucoup comme communication. Déjà parce que nulle part il est indiqué qu’Apple Intelligence est en beta. Ensuite, parce qu’il est très surprenant que toute la communication de la société tourne autour d’une fonctionnalité beta. Enfin, une fonctionnalité peut-elle être vraiment en beta si elle est installée sur toutes les machines de la marque par défaut ?
Bref, là aussi, Apple doit faire mieux.
Genmoji et Image Playground
Est-ce utile de générer un emoji d'un écureuil DJ ?
Est-ce que quelqu’un s’est dit un jour : tiens, nous n’avons pas assez d’emoji ? Apparemment c’est le cas chez Apple, d’où la création de Genmoji qui vous permet de créer un emoji à partir d’une description. J’avoue que je suis assez circonspect sur son utilité, mais Genmoji fonctionne correctement.
Dans la même veine, l’application Image Playground permet de créer une image d’une personne, en version cartoon, avec un thème (aventure, anniversaire, fête, amour, etc.). Là aussi, cela fonctionne, c’est marrant deux minutes, mais pas plus.
Fonctionnalité plus intéressante, Apple Intelligence propose Visual Intelligence. Avec une pression longue sur le bouton latéral, cela se lance et permet de rechercher sur le web quelque chose qu’on montre avec l’appareil photo. On peut aussi faire une demande qui sera prise en compte par ChatGPT, et non par Siri. Visual Intelligence est simplement la réponse d’Apple à Google Lens et Circle to Search.
De manière générale, les concurrents fonctionnent mieux mais Visual Intelligence a le mérite d’exister. Cependant, l’interface est un peu bizarre et répétitive. Certainement que cela va évoluer avec les prochaines versions. Le fait que l’application fasse appel à ChatGPT et non à Siri est quand même révélateur du retard de Cupertino en la matière.
Retouche photo
Pour moi, la retouche photo d’Apple Intelligence montre vraiment à quel point la concurrence est loin devant.
Comme on peut le voir dans cette vidéo, c’est assez parlant.
Apple Intelligence vous permet d’effacer des éléments d’une photo. Le fond derrière l’élément supprimé est alors généré par IA. Malheureusement, les résultats sont parfois loin d’être probants. D’autant plus que la concurrence s’en sort bien mieux.
Apple Intelligence à gauche, Galaxy AI à droite.
De plus, Google propose des services très utiles, comme Add Me. Cela permet d’ajouter la personne prenant la photo en utilisant l’AR en temps réel. C’est très bien fait et très pratique. Le genre de fonctionnalité qu’Apple aurait pu annoncer tellement elle est magique.
Autre fonctionnalité disponible sur Android : Google Unblur. Comme son nom l’indique, cela enlève le flou des photos. Là aussi, c’est très pratique et assez magique. Dommage qu’Apple ne propose pas quelque chose de similaire. De plus, cela fonctionne sur n’importe quelle image, même si elle a été prise avec un vieux téléphone.
Google unblur : permet d'enlever le flou des photos. Pourquoi ne peut-on pas faire ça sur iPhone ?
Google Reimagine permet d’ajouter des éléments à une photo. Un exemple simple est de pouvoir mettre un ciel bleu à la place d’un ciel nuageux. Il est possible d’ajouter d'autres éléments, ce qui peut poser problème.
Cependant, on ne peut pas nier que cela est utile, notamment pour ceux d’entre nous qui ne sont pas à l’aise avec les outils de retouche d’image, tel que Photoshop.
Dans la même veine, j’adorerais avoir la version d’Apple de Google Best take. Cela permet de prendre les meilleures expressions de personnes sur plusieurs photos pour en faire une seule. Quand vous avez des enfants, vous vous rendez compte à quel point il est difficile d’avoir une photo avec une expression correcte sur chacun des visages (et essayez de faire ça avec des jumeaux en bas âge...). Là aussi, c’est une fonctionnalité très pratique qui aurait toute sa place sur un iPhone.
Bref, je ne vais pas faire la liste des fonctionnalités présentes sur Android que j’aimerais avoir sur iPhone, mais elles sont nombreuses (Magic Editor, Call Screening, Hold for me, et j'en passe). Il est temps pour Apple de mettre les bouchées doubles afin de proposer des choses similaires. Je connais des personnes qui ont l’habitude d’Android et qui sont souvent surprises que l’iPhone ne propose pas certaines fonctionnalités qu’ils considèrent comme indispensable.