L'univers Apple (#10)

Répondre
Partager Rechercher
l'outil de comparaison de GSMarena montre très peu de différence par rapport aux modèles de l'année dernière.

Juste un truc que j'ai pas compris, tous les machins IA, ce sera uniquement pour les iPhone 16 ou les précédentes générations y auront le droit via des mises à jour ?
Citation :
Publié par Borh
l'outil de comparaison de GSMarena montre très peu de différence par rapport aux modèles de l'année dernière.

Juste un truc que j'ai pas compris, tous les machins IA, ce sera uniquement pour les iPhone 16 ou les précédentes générations y auront le droit via des mises à jour ?
Dans la présentation, ils disent que le CPU a tellement évolué qu'ils sont passé du A16 au A18. lol.
Bref ils se justifient pour une compatibilité uniquement iPhone 16.

Après m'est avis qu'il va y avoir surtout un soucis de quantité de RAM (pour les Mac et iPhone) vu qu'il y a un modèle de LLM embarqué localement (ce que je trouve être une bonne approche pour le coup).

Comme je le pressentait plus haut, ils vont mettre à minima - enfin - 16 Go de RAM dans les prochains Macbook. Mais le modèle en fait 9 (enfin celui dans les beta, et 3-4 pour les iPhone). Bref, il en restera encore moins que 8 une fois tout ce bordel activé.
Apple annonce +15% CPU / +20% GPU pour l'iPhone 16 Pro par rapport au 15 Pro.

Citation :
Dans la présentation, ils disent que le CPU a tellement évolué qu'ils sont passé du A16 au A18. lol.
C'est pour l'iPhone 16 par rapport à l'iPhone 15 ça, pas les Pro. +30% CPU / + 40% GPU pour iPhone 16 vs iPhone 15, toujours selon Apple.

Pour l'IA, ils avaient annoncé à la WWDC que l'iPhone 15 Pro serait le seul modèle compatible (et maintenant, les iPhone 16 / 16 Pro of course).
Côté Mac, tous les M1 vont le supporter, y compris ceux avec 8 GB de RAM. Et tous les iPad avec un M1 ou supérieur également.

Sinon ouais, mauvaise keynote. Sur la forme, ça devient un peu angoissant, on dirait des statues de cire sans émotion qui essaient de se convaincre que les produits sont plus amazing que jamais. C'est un tour de force d'avoir fait tenir ça sur 1h40 ; après, si y a rien de fou à présenter niveau produit, ils peuvent pas faire des miracles et rendre ça sexy. On attendra des trucs plus sympas la prochaine fois.
Sur le fond, bah, les iPhone sont pas mauvais, rien qui justifie un achat d'une année sur l'autre, comme ces dernières années. Je vais pas m'en plaindre, mon 14 Pro va me tenir un an de plus. La partie photo / audio a l'air costaud quand même hein.
J'avais un peu d'espoir pour la Watch, mais je suis pas sûr de la prendre. C'est quand même léger comme améliorations, j'attendais bien mieux pour le modèle du dixième anniversaire.

La palme revient au AirPods Max quand même, qui a uniquement gagné un port USB-C, vendu au même prix qu'avant. Ils ont même pas été foutus de rapatrier le mode adaptatif des AirPods Pro, sortis il y a un moment maintenant.
Les AirPods 4 sont peut-être le truc le plus réussi de la keynote, même si je suis pas client.

Dernière modification par Locke / Rezard ; 10/09/2024 à 12h48.
Cette keynote était clairement beaucoup trop longue. Faire durer autant de temps sur les iPhone c'était abusé.

Notons que la nouveauté principale, Apple Intelligence, n'est pour le moment pas prévue en Europe.

Bref, rien de bien ouf oui, j'ai aussi pensé que les nouveaux AirPods étaient le truc le plus intéressant, c'est sympa de faire une version ANC sans les intra en silicone pour ceux qui ne supportent pas ça, et les nouveaux AirPods Pro ont un potentiel intéressant sur le côté aide auditive. Par contre oui les AirPods Max c'est de l'abus complet de faire un segment dessus juste pour annoncer une nouvelle couleur et l'USB-C), sans toucher à l'horrible housse ni au prix.
AirPod 4/Pro -> Toujours pas de BT multipoint donc c'est toujours niet, et ça me fait chier.

Watch 10 -> Elle m'interesse toujours mais 500€ flemme, je surveillerai les promo

Iphone 16 -> Le seul argument qui me pousse a le prendre c'est AI (non dispo sur mon 15 du coup), j'attend de voir ce que ça donnera quand ce sera dispo l'année prochaine en Français, si ça se trouve on sera pas loin de l'Iphone 17 cependant
Citation :
Publié par Locke / Rezard
Côté Mac, tous les M1 vont le supporter, y compris ceux avec 8 GB de RAM. Et tous les iPad avec un M1 ou supérieur également.
Un peu de mal à comprendre comment ils vont faire fonctionner ça. Avec un modèle de langage qui fait 9 Go, c'est au choix : charger le modèle dans le fichier d'échange (et avoir des résultats bien plus lents), utiliser un modèle plus petit comme sur les iPhone (mais même comme ça, il va pas rester grand chose pour l'utilisation normale du mac), ou externaliser et ne pas utiliser d'IA locale, et dans ce cas, c'est du foutage de gueule parce que n'importe quel appareil y arriverait.

Après je me trompe peut être, mais je pense pas qu'ils aient réinventer la façon dont fonctionnent les LLM.

En tout cas de ce que j'en ai vu de leur IA, ça ressemble surtout au meilleur outils possible pour te vendre tout et n'importe quoi (sérieusement on dirait que les iPhone 16 ont été pensé pour des influenceurs).

Je vais rester avec mon modèle local opensource qui fonctionne très bien sous Ventura

Citation :
Publié par (0)Draki
AirPod 4/Pro -> Toujours pas de BT multipoint donc c'est toujours niet, et ça me fait chier.
Les AirPods basculent déjà automatiquement entre tes divers appareils. Appareils Apple connectés à ton compte Apple, mais bon, on parle d'Apple.

Dernière modification par Dr. Troy ; 11/09/2024 à 10h09.
Citation :
Publié par Dr. Troy
Un peu de mal à comprendre comment ils vont faire fonctionner ça. Avec un modèle de langage qui fait 9 Go, c'est au choix : charger le modèle dans le fichier d'échange (et avoir des résultats bien plus lents), utiliser un modèle plus petit comme sur les iPhone (mais même comme ça, il va pas rester grand chose pour l'utilisation normale du mac), ou externaliser et ne pas utiliser d'IA locale, et dans ce cas, c'est du foutage de gueule parce que n'importe quel appareil y arriverait.
J'ai peut-être raté une info, ils comptent utiliser un modèle différent entre iOS et macOS ? Je vois pas de feature réservée à un OS en particulier, j'en ai déduit que les deux embarquaient le même modèle. Ça paraîtrait logique qu'ils embarquent un modèle plus lourd et plus performant sur une machine qui a plus de mémoire dispo, mais ça me paraît pas très "Apple" de différencier l'efficacité d'une même feature selon la plate-forme.
Pour l'instant à ma connaissance, la seule feature qui demande explicitement 16 GB de RAM concernant Apple Intelligence sur Mac, c'est le modèle de "predictive completion" en local dans le nouveau Xcode. L'équivalent de Copilot est traité côté serveur.

Je ne crois pas à l'éventualité que des machines avec peu de RAM déporteraient les calculs vers les serveurs d'Apple tandis que les autres les feraient en local, déjà pour la raison que tu donnes et qui leur vaudrait de se faire éclater (doublement même : non seulement pourquoi limiter aux M1, mais en plus pourquoi limiter ça à macOS et ne pas supporter les iPhone pré-2023 ?), et ensuite parceque ça m'étonnerait énormément qu'ils se soient fait chier à prévoir une version locale / distante de toutes les features d'AI, juste pour supporter des Mac d'entrée de gamme.

Après comme tu dis, peut-être que les Mac 8 GB vont passer leur temps à swap comme des porcs pour décharger et recharger les modèles. Et honnêtement y a moyen que ça passe, on n'est plus à l'époque des HDD. Je me dis que s'ils sont allés jusqu'à supporter ces modèles, y a deux raisons possibles : soit c'est assez OK pour être utilisé en conditions réelles (même avec du swap au milieu) et à ce moment-là bravo à eux, soit ça marche juste assez bien pour accrocher l'utilisateur avec les features IA, mais ça plombe suffisamment tout le reste pour lui donner envie de passer sur un modèle avec plus de RAM. Connaissant Apple les deux sont envisageables.

[Edit]
Sinon, Hermes a listé les nouveaux modèles d'Apple Watch avec ses bracelets maison ; les versions avec bracelets en cuir sont uniquement listées sur leur site et pas chez Apple, et franchement ça fait chier parceque celle-ci me fait de l'oeil, mais j'arrive pas à me persuader que c'est raisonnable de foutre 1500€ dedans.

boitier-series10-bracelet-apple-watch-hermes-simple-tour-46mm--applewatch-000993.jpg

Dernière modification par Locke / Rezard ; 11/09/2024 à 11h18.
Citation :
Publié par Locke / Rezard
J'ai peut-être raté une info, ils comptent utiliser un modèle différent entre iOS et macOS ? Je vois pas de feature réservée à un OS en particulier, j'en ai déduit que les deux embarquaient le même modèle. Ça paraîtrait logique qu'ils embarquent un modèle plus lourd et plus performant sur une machine qui a plus de mémoire dispo, mais ça me paraît pas très "Apple" de différencier l'efficacité d'une même feature selon la plate-forme.
Pour l'instant à ma connaissance, la seule feature qui demande explicitement 16 GB de RAM concernant Apple Intelligence sur Mac, c'est le modèle de "predictive completion" en local dans le nouveau Xcode. L'équivalent de Copilot est traité côté serveur.

Je ne crois pas à l'éventualité que des machines avec peu de RAM déporteraient les calculs vers les serveurs d'Apple tandis que les autres les feraient en local, déjà pour la raison que tu donnes et qui leur vaudrait de se faire éclater (doublement même : non seulement pourquoi limiter aux M1, mais en plus pourquoi limiter ça à macOS et ne pas supporter les iPhone pré-2023 ?), et ensuite parceque ça m'étonnerait énormément qu'ils se soient fait chier à prévoir une version locale / distante de toutes les features d'AI, juste pour supporter des Mac d'entrée de gamme.

Après comme tu dis, peut-être que les Mac 8 GB vont passer leur temps à swap comme des porcs pour décharger et recharger les modèles. Et honnêtement y a moyen que ça passe, on n'est plus à l'époque des HDD. Je me dis que s'ils sont allés jusqu'à supporter ces modèles, y a deux raisons possibles : soit c'est assez OK pour être utilisé en conditions réelles (même avec du swap au milieu) et à ce moment-là bravo à eux, soit ça marche juste assez bien pour accrocher l'utilisateur avec les features IA, mais ça plombe suffisamment tout le reste pour lui donner envie de passer sur un modèle avec plus de RAM. Connaissant Apple les deux sont envisageables.
D'après les premiers retours de beta, le modèle pour Mac pèse dans les 9 Go alors que le modèle pour iPhone dans les 3 (enfin techniquement, un même modèle mais formats différents - j'ai plus les termes hehe). Mais ça me semble plutôt logique. Ça ne veut pas dire que les fonctionnalités seront moindre, mais sûrement moins efficaces (j'ai testé un modèle de Microsoft - Phi - qui est volontairement léger pour les mobiles, et ça marche plutôt bien), avec des réponses plus courtes par exemple.
Si je parle de RAM c'est parce que c'est unifié, mais techniquement c'est plutot de la VRAM. Et la diff entre VRAM et swap, même avec nos SSD, n'est pas négligeable.
Le passage de local à serveur est déjà prévu, ça serait pas étonnant que le curseur soit différent en fonction des appareils. Ça serait assez transparent pour l'utilisateur final.

Bon après ça reste des suppositions, mais j'ai du mal à comprendre comment ils comptent faire tourner ça sur des Mac à 8Go sans concessions.
Citation :
Publié par Dr. Troy


Les AirPods basculent déjà automatiquement entre tes divers appareils. Appareils Apple connectés à ton compte Apple, mais bon, on parle d'Apple.
L'iphone est le seul appareil Apple que je possède, et l'Iwatch est le seul appareil dans ma liste des "pourquoi pas un jour", je ne trouve aucun intérêt pratique a tout le reste du matériel Apple.

Et même si j'avais tout en Apple chez moi, l'intérêt du multi point pour moi c'est PC Pro (sous Windows) et IPhone, pour pouvoir décrocher les appels/teams sur l'un ou l'autre sans avoir a me soucier de a quel appareil mes écouteurs sont appairés.

Du coup pour moi, les airpods ne sont pas multipoint

C'est pas genre un caprice, si je devais utiliser des airpods aujourd'hui, je pense que je devrais switcher manuellement de périphérique 10x par jours, ça me soûlerai rapidement.
Citation :
Publié par Dr. Troy
Oui c'était cynique, dans le sens où comme à leur habitude ils privilégient leur écosystème (cela dit ça marche pas mal leur système).
Est-ce que ça bascule automatiquement pour les sons autre que les communication aussi ? Le site d'apple parle seulement des appels.

Avec les miens si j'écoute une video sur le PC, que met pause, et que je met spotify ou insta sur mon tel, le son est toujours envoyé sur les écouteur;
Si je ne met pas pause, la source reste celle qui diffuse du son jusqu'a ce que j'arrete, sauf en cas d'appel car ils sont prioritaires dans la diffusion.

Bref c'est bien foutu aussi
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés