BlockBeats a rapporté qu'en date du 21 décembre, le fondateur d'Éthereum, Vitalik Buterin, a publié sur les réseaux sociaux : "Ma définition de l'AGI (intelligence artificielle générale) est la suivante : l'AGI est une forme suffisamment puissante d'intelligence artificielle, de sorte que si un jour tous les êtres humains venaient à disparaître subitement et que cette IA était téléchargée dans des corps de robots, elle serait en mesure de perpétuer la civilisation de manière autonome. De toute évidence, il s'agit d'une définition très difficile à évaluer, mais je pense que c'est là l'élément crucial qui permet à beaucoup de distinguer intuitivement l'"IA à laquelle nous sommes habitués" de l'AGI". Cela marque la transition d'un outil qui dépend constamment de l'input humain à une forme de vie autonome. L'ASI (intelligence artificielle superintelligente) est tout à fait différente - ma définition est que lorsque les humains ne contribuent plus à la productivité (tout comme dans les jeux de stratégie, nous avons en fait atteint ce point au cours des dix dernières années), c'est là que l'ASI me fait peur - même l'AGI que j'ai définie me fait peur, car elle présente des risques évidents de perte de contrôle. Je soutiens l'idée de concentrer nos efforts sur la création d'outils d'amélioration de l'intelligence pour l'humanité, plutôt que de créer des formes de vie superintelligentes."
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Vitalik: Approve of focusing on building intelligent enhancement tools for humans, rather than creating super intelligent life
BlockBeats a rapporté qu'en date du 21 décembre, le fondateur d'Éthereum, Vitalik Buterin, a publié sur les réseaux sociaux : "Ma définition de l'AGI (intelligence artificielle générale) est la suivante : l'AGI est une forme suffisamment puissante d'intelligence artificielle, de sorte que si un jour tous les êtres humains venaient à disparaître subitement et que cette IA était téléchargée dans des corps de robots, elle serait en mesure de perpétuer la civilisation de manière autonome. De toute évidence, il s'agit d'une définition très difficile à évaluer, mais je pense que c'est là l'élément crucial qui permet à beaucoup de distinguer intuitivement l'"IA à laquelle nous sommes habitués" de l'AGI". Cela marque la transition d'un outil qui dépend constamment de l'input humain à une forme de vie autonome. L'ASI (intelligence artificielle superintelligente) est tout à fait différente - ma définition est que lorsque les humains ne contribuent plus à la productivité (tout comme dans les jeux de stratégie, nous avons en fait atteint ce point au cours des dix dernières années), c'est là que l'ASI me fait peur - même l'AGI que j'ai définie me fait peur, car elle présente des risques évidents de perte de contrôle. Je soutiens l'idée de concentrer nos efforts sur la création d'outils d'amélioration de l'intelligence pour l'humanité, plutôt que de créer des formes de vie superintelligentes."