رئيسي حافة رائدة 16 سؤالاً غير مريح يجب على الجميع طرحها حول الذكاء الاصطناعي

16 سؤالاً غير مريح يجب على الجميع طرحها حول الذكاء الاصطناعي

برجك ليوم غد

تسع شركات تكنولوجيا عملاقة فقط في الولايات المتحدة والصين وراء الغالبية العظمى من التطورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم. في كتابها الجديد ، The Big Nine: كيف يمكن لعمالقة التكنولوجيا وآلاتهم في التفكير أن تشوه البشرية (PublicAffairs ، 5 مارس) ، تتصور إيمي ويب ثلاثة مستقبلات محتملة ، تتراوح من التفاؤل إلى نهاية العالم ، والتي قد تنجم عن الإجراءات التي نتخذها - أو لا نتخذها - للتحكم في تطوير الذكاء الاصطناعي. وتشكيل تأثيرها العالمي. في هذا المقتطف ، طرحت سلسلة من الأسئلة الأخلاقية الصعبة التي قام البشر ببناء الذكاء الاصطناعي. يجب أن تستخدم الأنظمة لتوجيه عملهم.

القواعد - الخوارزمية - التي تعيش بها كل ثقافة ، ومجتمع ، وأمة على الإطلاق ، كانت دائمًا من صنع قلة قليلة من الناس. الديمقراطية ، والشيوعية ، والاشتراكية ، والدين ، والنباتية ، والأصلانية ، والاستعمار - هذه هياكل طورناها عبر التاريخ للمساعدة في توجيه قراراتنا. حتى في أفضل الحالات ، فهي ليست واقية من المستقبل. تتدخل القوى التكنولوجية والاجتماعية والاقتصادية دائمًا وتجعلنا نتكيف.

تشكل الوصايا العشر خوارزمية تهدف إلى إنشاء مجتمع أفضل للبشر على قيد الحياة منذ أكثر من 5000 عام. وإحدى الوصايا أن تأخذ راحة كاملة في الأسبوع ولا تقوم بأي عمل طيلة ذلك اليوم. في العصر الحديث ، لا يعمل معظم الناس في نفس الأيام أو الساعات بالضبط من أسبوع لآخر ، لذلك سيكون من المستحيل عدم خرق القاعدة. ونتيجة لذلك ، فإن الأشخاص الذين يتبعون الوصايا العشر كمبدأ إرشادي يتمتعون بالمرونة في تفسيرهم ، نظرًا لواقع أيام العمل الطويلة وممارسة كرة القدم والبريد الإلكتروني. التكيف أمر جيد - إنه يعمل جيدًا حقًا بالنسبة لنا ولمجتمعاتنا ، مما يسمح لنا بالبقاء على المسار الصحيح. يتيح لنا الاتفاق على مجموعة أساسية من الإرشادات تحسين أنفسنا.

كاثي لوتنر وسيدني كروسبي

لن تكون هناك طريقة لإنشاء مجموعة من الوصايا لـ A.I. لم نتمكن من كتابة جميع القواعد لتحسينها بشكل صحيح للبشرية ، وذلك لأنه على الرغم من أن آلات التفكير قد تكون سريعة وقوية ، إلا أنها تفتقر إلى المرونة. لا توجد طريقة سهلة لمحاكاة الاستثناءات ، أو محاولة التفكير في كل حالة طارئة مسبقًا. مهما كانت القواعد التي قد تُكتب ، سيكون هناك دائمًا ظرف في المستقبل قد يرغب فيه بعض الأشخاص في تفسير القواعد بشكل مختلف ، أو تجاهلها تمامًا ، أو إجراء تعديلات من أجل إدارة ظرف غير متوقع.

مع العلم أنه لا يمكننا كتابة مجموعة من الوصايا الصارمة لاتباعها ، فهل ينبغي لنا بدلاً من ذلك أن نركز اهتمامنا على البشر الذين يبنون الأنظمة؟ يجب على هؤلاء الناس - قبائل الذكاء الاصطناعي - أن يسألوا أنفسهم أسئلة غير مريحة ، بدءًا من:

كم عمر مارك بو من بناة بارنوود
  • ما هو دافعنا للذكاء الاصطناعي؟ هل تتماشى مع أفضل المصالح طويلة المدى للبشرية؟
  • ما هي تحيزاتنا؟ ما هي الأفكار والخبرات والقيم التي فشلنا في تضمينها في قبيلتنا؟ من أغفلنا؟
  • هل قمنا بتضمين أشخاص لا يشبهوننا بغرض صنع مستقبل الذكاء الاصطناعي. أفضل - أم أننا قمنا ببساطة بتضمين التنوع في فريقنا لتلبية حصص معينة؟
  • كيف يمكننا التأكد من أن سلوكنا شامل؟
  • كيف هي الآثار التكنولوجية والاقتصادية والاجتماعية للذكاء الاصطناعي يفهم من قبل المشاركين في إنشائها؟
  • ما هي الحقوق الأساسية التي يجب أن نمتلكها لاستجواب مجموعات البيانات والخوارزميات والعمليات المستخدمة لاتخاذ القرارات نيابة عنا؟
  • من الذي سيحدد قيمة الحياة البشرية؟ مقابل ما يتم وزن هذه القيمة؟
  • متى ولماذا يشعر أفراد قبائل الذكاء الاصطناعي أن مسؤوليتهم هي معالجة الآثار الاجتماعية للذكاء الاصطناعي؟
  • هل قيادة منظمتنا و A.I. تعكس القبائل أنواعًا مختلفة من الناس؟
  • ما هو الدور الذي يقوم به أولئك الذين يقومون بتسويق الذكاء الاصطناعي؟ تلعب في معالجة الآثار الاجتماعية للذكاء الاصطناعي؟
  • هل يجب أن نستمر في مقارنة A.I. للتفكير البشري ، أم الأفضل لنا أن نصنفه على أنه شيء مختلف؟
  • هل من المقبول بناء ذكاء اصطناعي؟ يتعرف على المشاعر الإنسانية ويستجيب لها؟
  • هل من المقبول جعل A.I. أنظمة قادرة على محاكاة المشاعر البشرية ، خاصة إذا كانت تتعلم منا في الوقت الفعلي؟
  • ما هي النقطة المقبولة التي نحن جميعًا على ما يرام مع الذكاء الاصطناعي. تتطور بدون وجود البشر في الحلقة؟
  • تحت أي ظروف يمكن لـ A. محاكاة وتجربة المشاعر الإنسانية المشتركة؟ ماذا عن الألم والخسارة والشعور بالوحدة؟ هل نحن بخير نتسبب في تلك المعاناة؟
  • هل نقوم بتطوير الذكاء الاصطناعي للبحث عن فهم أعمق لأنفسنا؟ هل يمكننا استخدام الذكاء الاصطناعي؟ لمساعدة البشرية على عيش حياة أكثر تمحيصًا؟

هناك تسع شركات تكنولوجية كبرى - ست شركات أمريكية وثلاث شركات صينية - مسؤولة بشكل كبير عن مستقبل الذكاء الاصطناعي. في الولايات المتحدة ، هم Google و Microsoft و Amazon و Facebook و IBM و Apple ('G-MAFIA'). في الصين ، إنها BAT: Baidu و Alibaba و Tencent.

بدأت G-MAFIA في معالجة مشكلة المبادئ التوجيهية من خلال مجموعات البحث والدراسة المختلفة. يوجد داخل Microsoft فريق يسمى FATE - للعدالة والمساءلة والشفافية والأخلاق في الذكاء الاصطناعي. في أعقاب فضيحة Cambridge Analytica ، أطلق Facebook فريقًا أخلاقيًا كان يطور برنامجًا للتأكد من أن الذكاء الاصطناعي الخاص به هو. أنظمة تجنب التحيز. (على وجه الخصوص ، لم يذهب Facebook إلى حد إنشاء مجلس أخلاقي يركز على الذكاء الاصطناعي) أنشأ DeepMind فريقًا للأخلاقيات والمجتمع. تنشر IBM بانتظام حول الأخلاق و A.I. في أعقاب فضيحة في بايدو - أعطى محرك البحث الأولوية للادعاءات الطبية المضللة من مستشفى يديرها الجيش ، حيث أدى العلاج إلى وفاة طالب يبلغ من العمر 21 عامًا - اعترف الرئيس التنفيذي لشركة بايدو ، روبن لي ، بأن الموظفين قدموا تنازلات من أجل نمو أرباح بايدو ووعدت بالتركيز على الأخلاق في المستقبل.

كم كان طول جون ستوكتون

تنتج The Big Nine دراسات أخلاقية وأوراق بيضاء ، وتدعو الخبراء لمناقشة الأخلاقيات ، وتستضيف ندوات حول الأخلاقيات - لكن هذا الجهد لا يتشابك بشكل كافٍ مع العمليات اليومية لمختلف الفرق العاملة في الذكاء الاصطناعي.

The Big Nine A.I. تقوم الأنظمة بالوصول بشكل متزايد إلى بياناتنا الواقعية لبناء منتجات تُظهر قيمة تجارية. تتسارع دورات التنمية لمواكبة توقعات المستثمرين. لقد كنا مستعدين - إذا لم يكن لدينا علم - مشاركين في مستقبل يتم إنشاؤه على عجل وبدون الإجابة أولاً على كل هذه الأسئلة. كما أ. تتقدم الأنظمة ويصبح المزيد من الحياة اليومية مؤتمتة ، تقل قدرتنا على التحكم في القرارات التي يتم اتخاذها بخصوصنا ولصالحنا.

ستظهر ايمي ويب في شركة بيت المؤسسين في أوستن في 11 مارس.