Je trouve openAi pire au départ ça se veut ouvert justement pour lutter contre les abus. Je crois d'ailleurs que la trahison d'openAi c'est vraiment le moment où Musk a complètement vrillé.
(Rien à voir mais le fait que bluesky montre les posts dans l'ordre fait que je vois les corrections beaucoup plus facilement sur ma timeline, j'avais oublié à quel point c'était pratique..)
Il faut une demi-heure environ à Nightshade pour traiter une image (c'est une blockchain, pour pirater l'identification de l'image sur internet). L'autre est plus rapide en fonction de la concentration d'empoisonnement de l'image.
Bref, s'ils "tuent" l'art humain ils tuent en même temps leurs propres IA.
(bon, ça reste une faible consolation pour les artistes ayant perdu leurs emplois ou dont les œuvres sont noyées au milieu de merdes IA)
J’ai aucun doute que MidJourney pense et fait la même chose, mais la citation me semble attribué à une personne de OpenAI, donc de DallE, un concurrent de MidJourney.
Ça me fait penser au gars qui a gagné un concours avec une image générée par IA, et qui se plaint qu'il ne peut pas protéger son "œuvre" avec des droits d'auteurs..
Comments
Avez vraiment tant besoin que ça d'une rémunération ?
Impolis.
https://futurism.com/ai-trained-ai-generated-data-interview
(bon, ça reste une faible consolation pour les artistes ayant perdu leurs emplois ou dont les œuvres sont noyées au milieu de merdes IA)
Ca change rien au fond nonobstant.
Pouvez-vous clarifier ce qu’est « notre travail » et « data poison » ?
- Roger, cambrioleur, à propos des systèmes d'alarme
Par exemple:
https://www.bewaremag.com/glaze-un-premier-pas-vers-la-protection-reelle-des-artistes-face-aux-ia/
Une meilleure explication que la mienne:
Très intéressant d'ailleurs.
C'est loin d'être fini pour le moment puisqu'il semblerait que l'on tourne autour de 50% d'efficacité.