view the rest of the comments
France
La France et les Français
Communautés principales
Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org
FAQ, guides et ressources :
Actualité internationale
Loisirs:
- !cineseries@jlai.lu
- !cyclisme@sh.itjust.works
- !jardin@lemmy.world
- !jeuxdesociete@lemmy.world
- !jeuxvideo@jlai.lu
- !livres@jlai.lu
- !motardie@jlai.lu
- !sport@jlai.lu
- !technologie@jlai.lu
- !tournesol@jlai.lu
Vie Pratique:
Société:
Villes/Régions
- !bretagne@jlai.lu
- !grenoble@jlai.lu
- !lille@jlai.lu
- !lyon@lemmy.world
- !marseille@jlai.lu
- !nantes@sh.itjust.works
- !orleans@lemmy.world
- !paris@jlai.lu
- !toulouse@jlai.lu
Pays:
Humour:
Fedivers:
Règles
-
Multi-lingual community: posts in other language than French are allowed. 🚀
-
Tous les francophones sont bienvenus. 🐌
-
Remember the human : pas d’insultes, pas d’agressivité, pas de harcèlement entre utilisateurs. 🤖
-
Xénophobie, racisme et autre forme de discrimination sont interdits.🌈
-
Pas de doublon. Pas de spam. Évitez les paywalls autant que possible.☔
-
Utilisez la fonction "Report" pour signaler le contenu contrevenant aux règles.🏴
-
Le contenu doit être en rapport avec la France ou la population française.🇨🇵
Communauté de secours:
Déjà, on demande a l'IA de générer 2 choses distincte, c'est compliqué pour lui, en utilisant StableDiffusion (ce qu'utilise mid journey), il a beaucoup de mal de générer des "concepts" avec des attributs indépendants:
"A red circle"
"A green square"
Demandez les 2 en meme temps, et l'IA est perdu:
"A green square and a red circle"
Notez la disparition total du cercle.
Et voici pour: "A girl with a blue shirt and a green jean."
Du coup, oui l'IA va tomber rapidement dans les biais de ses données d'apprentissage si elle est pas assez intelligente pour comprendre ce qu'on lui demande.
Sauf que Dall-E 3 réussit les prompts que je viens de donner sans soucis.
Et si on lui demande ? Bein y'a pas de problème:
Edit:
Stable Diffusion a tellement du mal que le médecin va être un enfant assez fréquement (le mot "children" leak sur "doctor")
On peut faire en sorte que Stable Diffusion comprenne mieux en donnant un coup de main en séparant les concepts.
Il existe un outil appellé "Cutoff" qui permet d'aider SD en limitant la portée des mots.
Avec la prompt "A (black doctor) attending (white childrens)"
Et en mettant le "cutoff" sur "black, white", SD respecte (plus souvent) la demande (mais y'a plus d'occurence de médecins sans enfants):
Edit edit: Notez que, pour faire en sorte que l'IA fasse ce qu'on veut, c'est compliqué, j'ai mis des images pour illustrer, c'est partiellement un mensonge: l'image illustre ce que m'a sortit le plus fréquemment l'IA avec mes paramètres, il peut lui arriver de réussir infréquemment l'inverse de ce que j'illustre, ou ne respecte pas du tout ce que j'ai demandé.
Personellement, je pense que si l'étude de base voulait être sérieuse, il aurait fallus qu'il mesure déjà la confusion de base de l'IA, sur des sujets avec peu de biais, puis comparer avec un sujet biaisé.
Très intéressant, merci!
Et il faut aussi ajouter que ce genre d'article est extrêmement facile à faire: les chercheurs et ingés discutent de ces problèmes de composition et de biais en sont très conscient et ont des moyens d'y remédier. On procède par étapes, et le paradoxe c'est que chaque étape est une putain de révolution mais que du coup on est déçu quand on en trouve des limites.
Dalle e 3 est hyper impressionnant sur ce problème. Il interprète vraiment très bien les différents concepts et leurs relations.