اعتدنا على قراصنة الكومبيوتر أن يكونوا بشرًا. قريباً، سوف تخترق أنظمة الذكاء الاصطناعي الإنسانية

اعتدنا على قراصنة الكومبيوتر أن يكونوا بشرًا. قريباً، سوف تخترق أنظمة الذكاء الاصطناعي الإنسانية

إذا كان لديك ما يكفي للقلق بشأنه بالفعل، فكر في عالم تكون فيه انظمة الذكاء الاصطناعي قراصنة .

القرصنة قديمة قدم الإنسانية. نحن مبدعون في حل المشكلات. نحن نستغل الثغرات ، ونتلاعب بالنظم ، ونسعى جاهدين لمزيد من النفوذ والسلطة والثروة. حتى الآن ، كان القرصنة نشاطًا بشريًا حصريًا.ولكن ليس لوقت طويل.



في النهاية سيجد الذكاء الاصطناعي نقاط ضعف في جميع أنواع الأنظمة الاجتماعية والاقتصادية والسياسية ، ثم يستغلها بسرعة وحجم ونطاق غير مسبوقين لاختراق البشرية ، ستقوم أنظمة الذكاء الاصطناعي بعد ذلك باختراق أنظمة الذكاء الاصطناعي الأخرى ، ولن يكون البشر أكثر من مجرد أضرار جانبية.

حسنًا ، ربما يكون هذا نوعًا من المبالغة ، لكنه لا يتطلب تقنية خيال علمي في المستقبل البعيد. أنا لا أفترض "تحولا Singularity" للذكاء الاصطناعي ، حيث تصبح حلقة التغذية الراجعة لتعلم الذكاء الاصطناعي سريعة جدًا بحيث تفوق الفهم البشري. أنا لا أفترض الروبوتات الذكية. أنا لا أفترض النية الشريرة. معظم هذه الاختراقات لا تتطلب تطورات بحثية كبيرة في الذكاء الاصطناعي. إنها تحدث بالفعل. مع ازدياد تعقيد الذكاء الاصطناعي ، فإننا في كثير من الأحيان لا نعرف حتى كيف تعمل هذه الانظمة.

لا تحل أنظمة الذكاء الاصطناعي المشاكل كما يفعل البشر. إنهم ينظرون إلى أنواع من الحلول أكثر منا. سوف يسلكون مسارات معقدة لم نفكر فيها. يمكن أن تكون هذه مشكلة بسبب شيء يسمى مشكلة التفسير. أنظمة الذكاء الاصطناعي الحديثة هي في الأساس صناديق سوداء. تذهب البيانات في أحد طرفيه ، ويخرج الجواب من الطرف الآخر. قد يكون من المستحيل فهم كيف وصل النظام إلى نهايته ، حتى لو كنت مختصّا في برمجة الكومبيوتر.



في عام 2015 ، قامت مجموعة بحثية بتغذية نظام ذكاء اصطناعي يسمى Deep Patient بالبيانات الصحية والطبية لحوالي 700000 شخص ، واختبرت ما إذا كان بإمكانه تشخيص الأمراض كما يفعل الأطباء. تمكن من ذلك ببراعة ، لكن Deep Patient لا يقدم أي تفسير لأساس التشخيص ، وليس لدى الباحثين أي فكرة عن كيفية توصله إلى استنتاجاته. يمكن للطبيب إما أن يثق في الكمبيوتر أو يتجاهله ، لكن هذه الثقة ستبقى عمياء.

بينما يعمل الباحثون على الذكاء الاصطناعي الذي يمكن أن يشرح نفسه ، يبدو أن هناك مفاضلة (تكلفة استبدال ميزة بأخرى) بين قوة اداء هذة الانظمة وإمكانيتها لتقديم شرح للحلول التي تقترحها. التفسيرات هي اختزال معرفي يستخدمه البشر ، ومناسب للطريقة التي يتخذ بها البشر قراراتهم. قد يكون إجبار الذكاء الاصطناعي على تقديم تفسيرات قيدًا إضافيًا قد يؤثر على جودة قراراته. في الوقت الحالي ، أصبح الذكاء الاصطناعي أكثر غموضًا وأقل قابلية للتفسير.

بشكل منفصل ، يمكن للذكاء الاصطناعي ان ينخرط في شيء يسمى اختراق المكافأة. نظرًا لأن الذكاء الاصطناعي لا يحل المشكلات بالطريقة نفسها التي يحلها الناس ، فسوف يعثرون دائمًا على حلول لم نتوقعها نحن البشر على الإطلاق - وسييقدم اجابات مناقضة لانتظارات البشر. هذا لأن الذكاء الاصطناعي لا يفكر من حيث الآثار والسياق والمعايير والقيم التي نتشاركها نحن البشر ونأخذها كأمر مسلم به. ينطوي اختراق المكافأة هذا على تحقيق هدف ولكن بطريقة لم يرغب بها مصممو الذكاء الاصطناعي ولا يقصدونها.

خذ محاكاة كرة القدم حيث اكتشف الذكاء الاصطناعي أنه إذا ركل الكرة الى رمية 6 أمتار، فسيتعين على حارس المرمى رمي الكرة وترك المرمى دون حماية. أو محاكاة مسابقات العدو، حيث اكتشف الذكاء الاصطناعي أنه بدلاً من الجري ، يمكن أن يجعل نفسه طويلاً بما يكفي لعبور خط النهاية عن طريق السقوط فوقه. أو مكنسة الروبوت الكهربائية التي بدلاً من تعلم عدم الاصطدام بالأشياء ، تعلمت القيادة للخلف ، حيث لم تكن هناك أجهزة استشعار تخبرها بأنها تصطدم بالأشياء. إذا كانت هناك مشاكل أو تناقضات أو ثغرات في القواعد ، وإذا أدت هذه الخصائص إلى حل مقبول على النحو المحدد في الإملاءات ، فستجد أنظمة الذكاء الاصطناعي هذه الاختراقات.

تشابه مشكلة القرصنة هذه قصة الملك ميداس. عندما منحه الإله ديونيسوس أمنية واحدة، سأله ميداس أن يتحول كل شيء يلمسه إلى ذهب. ينتهي به الأمر جائعًا وبائسًا عندما يتحول طعامه وشرابه وابنته إلى ذهب. إنها مشكلة في تحديد الرغبات: ميداس برمج هدفًا خاطئًا في النظام.



الجن في الاساطير دقيقون جدًا في فهم الرغبات، ويمكن أن يكونوا متحذلقين بشكل خبيث، و قد لا توجد طريقة للتغلب عليه. مهما كان ما تتمناه ، سيكون دائمًا قادرًا على منحه بالطريقة التي لم تتمناها. سوف يخترق رغبتك. دائمًا ما تكون الأهداف والرغبات غير محددة في لغة الإنسان وفكره. لا نقوم أبدًا بوصف جميع الخيارات أو تضمين جميع التحذيرات والاستثناءات والشروط السارية. أي هدف نحدده سيكون بالضرورة غير مكتمل.

في حين أن البشر غالبًا ما يفهمون ضمنيًا السياق ويتصرفون عادةً بحسن نية، لا يمكننا تحديد الأهداف تمامًا للذكاء الاصطناعي. ولن تتمكن أنظمة الذكاء الاصطناعي من فهم السياق تمامًا.

في عام 2015 ، ضُبطت فولكس فاجن وهي تغش في اختبارات التحكم في الانبعاثات. لم يكن هذا بسبب الذكاء الاصطناعي لقد برمج المهندسون البشريون جهاز كمبيوتر عاديًا للغش - لكنه يوضح المشكلة. قاموا ببرمجة محركهم لاكتشاف اختبار التحكم في الانبعاثات ، وللتصرف بشكل مختلف. ظل غشهم غير مكتشفة لسنوات.

إذا طلبت منك تصميم برنامج التحكم في محرك السيارة لتحقيق أقصى قدر من الأداء مع الاستمرار في اجتياز اختبارات التحكم في الانبعاثات ، فلن تصمم البرنامج للغش دون ان تدرك أنك تغش. هذا ببساطة ليس صحيحًا بالنسبة للذكاء الاصطناعي فهو لا يدرك ماهية الغش و انه يجب تجنبه. سوف يفكر "خارج الصندوق" لأنه لن يكون لديه تصور للصندوق. لن يفهم أن حل فولكس فاجن يضر بالآخرين ، ويقوض نية اختبارات التحكم في الانبعاثات ، وينتهك القانون. ما لم يحدد المبرمجون هدف عدم التصرف بشكل مختلف عند الاختبار ، فقد يأتي الذكاء الاصطناعي بنفس الاختراق. سيكون المبرمجون راضين والمحاسبين منتشيون. وبسبب مشكلة التفسير ، لن يدرك أحد ما فعله الذكاء الاصطناعي. ونعم ، بمعرفة قصة فولكس فاجن ، يمكننا تحديد هدف صريح لتجنب هذه المعضلة.



ما مدى واقعية اختراق الذكاء الاصطناعي في العالم الحقيقي؟ تعتمد جدوى اختراع الذكاء الاصطناعي لاختراق جديد كثيرًا على النظام المحدد الذي يتم تصميمه. لكي يبدأ الذكاء الاصطناعي حتى في تحسين مشكلة ما ، ناهيك عن اختراق حل جديد تمامًا ، يجب تقنين جميع قواعد البيئة بطريقة يمكن للكمبيوتر فهمها. يجب تحديد الأهداف - المعروفة في الذكاء الاصطناعي بالوظائف الموضوعية. ويحتاج الذكاء الاصطناعي إلى نوع من التعليقات حول مدى جودة أدائه حتى يتمكن من التحسن.

أحيانًا يكون هذا بسيطًا. في لعبة الشطرنج ، تم تحديد القواعد و الوضائف الموضوعية والتعليقات - هل ربحت أم خسرت؟ - كلها محددة بدقة. وليس هناك اشياء يجب معرفتها خارج هذه القواعد. هذا هو السبب في أن معظم الأمثلة الحالية لاختراق الهدف والمكافأة تأتي من محاكاة البيئات الحقيقية حيث يتعذر فعليا ضمان تحديد جميع القواعد والمواصفات.

ما يثير الاهتمام هو الأنظمة المحددة جيدًا والرقمية بالكامل تقريبًا. فكر في أنظمة الحوكمة مثل قانون الضرائب: سلسلة من الخوارزميات ، مع المدخلات والمخرجات. فكر في الأنظمة المالية، التي يمكن تتبعها بطريقة حسابية إلى حد ما.



يمكننا تخيل تزويد الذكاء الاصطناعي بجميع القوانين واللوائح العالمية ، بالإضافة إلى جميع المعلومات المالية في العالم في الوقت الفعلي ، بالإضافة إلى أي شيء آخر نعتقد أنه قد يكون ذا صلة ؛ ثم منحها هدف "أقصى ربح". أظن أن هذا ليس بعيدًا جدًا ، وأن النتيجة ستكون كل أنواع الاختراقات الجديدة.

لكن التطورات في الذكاء الاصطناعي متقطعة وغير بديهية. الأشياء التي تبدو سهلة تتحول إلى صعبة ، والأشياء التي تبدو صعبة تصبح سهلة. في اكثر الحالات لا نعرف ذلك حتى يحدث الاختراق فعليا.

عندما تبدأ أنظمة الذكاء الاصطناعي في القرصنة ، سيتغير كل شيء. لن يتم تقييدهم بنفس الطرق ، أو لديهم نفس الحدود ، مثل الناس. سوف يغيرون سرعة الاختراق وحجمه ونطاقه ، بمعدلات ومقادير لسنا مستعدين لها. روبوتات إنشاء نصوص على سبيل المثال ، سيتم تكرارها بالملايين عبر وسائل التواصل الاجتماعي. سيكونون قادرين على المشاركة في القضايا على مدار الساعة ، وإرسال مليارات الرسائل ، والتغلب على أي مناقشات فعلية عبر الإنترنت بين البشر. ما سنراه على أنه نقاش سياسي صاخب سيكون بين الروبوتات التي تتجادل مع الروبوتات الأخرى. سوف يؤثرون بشكل مصطنع على ما نعتقد أنه طبيعي،



كما أن تزايد التطبيقات لأنظمة الذكاء الاصطناعي يجعل الاختراقات أكثر خطورة. تأخذ أنظمة الذكاء الاصطناعي بالفعل قرارات مهمة بشأن حياتنا ، والقرارات التي اعتدنا أن نعتقد أنها من اختصاص البشر الحصري:مثل اي من المساجين يحصل على الإفراج المشروط، أو من يحصل على قروض بنكية ، أو يلتحق بالجامعة ، أو يحصل على وظيفة. مع زيادة قدرة أنظمة الذكاء الاصطناعي ، سيتنازل المجتمع عن المزيد من القرارات المهمة. سوف تصبح عمليات اختراق هذه الأنظمة أكثر ضررًا.

ماذا لو قمت بتغذية نظام بقانون الضرائب بالكامل ؟ أو ، في حالة شركة متعددة الجنسيات ، قوانين الضرائب في العالم بأسره؟ هل ستكتشف ، دون أن يتم إخبارها ، أنه من الذكاء تأسيس شركتك في سانغفورة وتسجيل سفنك في بنما؟ كم عدد الثغرات التي سيجدها والتي لا نعرف عنها بالفعل؟ العشرات؟ الآلاف؟ ليس لدينا ادنى فكرة.

بينما لدينا أنظمة مجتمعية تتعامل مع الاختراقات ، فقد تم تطويرها عندما كان المتسللون بشرًا ، وتعكس سرعة الإنسان وحجمه ونطاقه. لا تستطيع مصلحة الضرائب التعامل مع العشرات - ناهيك عن الآلاف - من الثغرات الضريبية المكتشفة حديثًا. يمكن للذكاء الاصطناعي الذي يكتشف الاختراقات القانونية غير المتوقعة للأنظمة المالية أن يقلب أسواقنا بشكل أسرع مما يمكننا التعافي منه.

هذا كل ما نحتاج إلى اكتشافه الآن ، قبل أن تأتي أنظمة الذكاء الاصطناعي هذه عبر الإنترنت وتبدأ في اختراق عالمنا.