BlockBeats News ، في 21 ديسمبر ، نشر فيتاليك بوتيرين ، مؤسس ETH Square ، على وسائل التواصل الاجتماعي ، "تعريفي ل AGI (الذكاء الاصطناعي العام) هو: AGI هو ذكاء اصطناعي قوي بما فيه الكفاية بحيث إذا اختفى جميع البشر فجأة يوما ما وتم تحميل الذكاء الاصطناعي على جسم الروبوت ، فسيكون قادرا على مواصلة الحضارة بشكل مستقل. من الواضح أنه تعريف صعب للغاية للقياس ، لكنني أعتقد أنه في صميم ما يعتقده الكثير من الناس على أنه التمييز البديهي بين "الذكاء الاصطناعي" و "AGI". إنه يمثل تحولا من أداة تعتمد باستمرار على المدخلات البشرية ، إلى شكل حياة مكتفية ذاتيا. ASI (الذكاء الاصطناعي الفائق) هي قصة مختلفة تماما - تعريفي هو عندما لم يعد البشر يولدون قيمة للإنتاجية في الحلقة (كما هو الحال في ألعاب الطاولة ، لقد وصلنا بالفعل إلى هذه النقطة فقط في العقد الماضي). نعم ، ASI يخيفني - حتى ما أعرفه على أنه AGI يخيفني لأنه ينطوي على خطر واضح بالخروج عن السيطرة. أنا أؤيد تركيز عملنا على بناء أدوات تعزيز الذكاء للبشر ، بدلا من بناء أشكال حياة فائقة الذكاء ".
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
فيتاليك: مؤيد لتركيز الجهود على بناء أدوات تعزيز الذكاء للبشرية بدلاً من بناء حياة ذكية فائقة
BlockBeats News ، في 21 ديسمبر ، نشر فيتاليك بوتيرين ، مؤسس ETH Square ، على وسائل التواصل الاجتماعي ، "تعريفي ل AGI (الذكاء الاصطناعي العام) هو: AGI هو ذكاء اصطناعي قوي بما فيه الكفاية بحيث إذا اختفى جميع البشر فجأة يوما ما وتم تحميل الذكاء الاصطناعي على جسم الروبوت ، فسيكون قادرا على مواصلة الحضارة بشكل مستقل. من الواضح أنه تعريف صعب للغاية للقياس ، لكنني أعتقد أنه في صميم ما يعتقده الكثير من الناس على أنه التمييز البديهي بين "الذكاء الاصطناعي" و "AGI". إنه يمثل تحولا من أداة تعتمد باستمرار على المدخلات البشرية ، إلى شكل حياة مكتفية ذاتيا. ASI (الذكاء الاصطناعي الفائق) هي قصة مختلفة تماما - تعريفي هو عندما لم يعد البشر يولدون قيمة للإنتاجية في الحلقة (كما هو الحال في ألعاب الطاولة ، لقد وصلنا بالفعل إلى هذه النقطة فقط في العقد الماضي). نعم ، ASI يخيفني - حتى ما أعرفه على أنه AGI يخيفني لأنه ينطوي على خطر واضح بالخروج عن السيطرة. أنا أؤيد تركيز عملنا على بناء أدوات تعزيز الذكاء للبشر ، بدلا من بناء أشكال حياة فائقة الذكاء ".