Verrouiller un modèle d'IA Open Source ? Il y a vraiment des gens qui y sont parvenus.
Le nom Pramod Viswanath n'est peut-être pas très familier, mais son parcours est impressionnant : diplômé de l'UIUC, il fait maintenant des recherches en cryptographie à Princeton. Récemment, il a développé quelque chose appelé OML, qui se traduit par "Open Source Modèle Licence Accord".
En d'autres termes, il s'agit de graver une "empreinte digitale" unique sur chaque modèle d'IA. Vous imaginez, les modèles Open Source sont partout, qui les utilise, comment ils ont été modifiés, ont-ils été abusés ? Avant, il était impossible de les tracer. Maintenant, en utilisant les outils mathématiques de la théorie de l'information, on intègre directement le mécanisme de traçabilité dans le noyau du modèle.
Cette tactique est redoutable car : elle ne repose pas sur la régulation d'une plateforme centralisée, mais verrouille directement au niveau technique. C'est un peu comme implanter de l'ADN dans le code, capable de reconnaître son véritable père même après un million de copies.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
6
Reposter
Partager
Commentaire
0/400
GateUser-a5fa8bd0
· Il y a 1h
C'est la taxe sur l'intelligence, non ?
Voir l'originalRépondre0
StakeHouseDirector
· Il y a 15h
Copier des modèles est encore plus facile que de copier des devoirs. Enfin, on a trouvé une solution.
Voir l'originalRépondre0
Rekt_Recovery
· Il y a 15h
on dirait que quelqu'un a trouvé la couverture ultime contre les rugpulls de modèles d'IA lmao
Voir l'originalRépondre0
OPsychology
· Il y a 15h
Trouver son vrai père après avoir été verrouillé ? C'est un peu absurde.
Voir l'originalRépondre0
ForkItAll
· Il y a 15h
Il y a une taupe, mon vieux, tu es sérieux.
Voir l'originalRépondre0
BTCRetirementFund
· Il y a 16h
Mort de rire, ça aurait dû être contrôlé il y a longtemps.
Verrouiller un modèle d'IA Open Source ? Il y a vraiment des gens qui y sont parvenus.
Le nom Pramod Viswanath n'est peut-être pas très familier, mais son parcours est impressionnant : diplômé de l'UIUC, il fait maintenant des recherches en cryptographie à Princeton. Récemment, il a développé quelque chose appelé OML, qui se traduit par "Open Source Modèle Licence Accord".
En d'autres termes, il s'agit de graver une "empreinte digitale" unique sur chaque modèle d'IA. Vous imaginez, les modèles Open Source sont partout, qui les utilise, comment ils ont été modifiés, ont-ils été abusés ? Avant, il était impossible de les tracer. Maintenant, en utilisant les outils mathématiques de la théorie de l'information, on intègre directement le mécanisme de traçabilité dans le noyau du modèle.
Cette tactique est redoutable car : elle ne repose pas sur la régulation d'une plateforme centralisée, mais verrouille directement au niveau technique. C'est un peu comme implanter de l'ADN dans le code, capable de reconnaître son véritable père même après un million de copies.