هل كانت لحظة اختراع الكمبيوتر من قبل تورينغ هي نقطة تحول الذكاء الاصطناعي؟
من تجربة فكرية إلى عالم جديد
هل فكرت يومًا في مصدر الذكاء الاصطناعي الذي نستخدمه يوميًا، مثل مساعد الصوت في هواتفنا، وخوارزميات التوصية، وحتى ChatGPT الذي أصبح شائعًا مؤخرًا؟ قد يعتقد الكثيرون أن الذكاء الاصطناعي هو اختراع عبقري في مختبر ما. لكن الحقيقة أكثر إثارة من ذلك. الذكاء الاصطناعي ليس اختراعًا معزولًا، بل هو أشبه بسباق فكري يمتد عبر قرن تقريبًا. نقطة انطلاقه ليست مجرد سطر من الشيفرة، بل هي سؤال فلسفي عميق: "هل تستطيع الآلات التفكير؟" هذا السؤال، مثل حجر يُلقى في بحيرة هادئة، أثار دوائر من التفكير بين أجيال من العقول اللامعة. منذ ذلك الحين، انخرط الفلاسفة، الرياضيون، المهندسون، وعلماء النفس... في هذا المجال، حيث عرّف البعض اسمه، وفتح آخرون طرقه، وصمد البعض خلال الشتاء، بينما أطلق آخرون طاقته اليوم. في هذه المقالة، سنغير وجهة نظرنا، ونربط بين النقاط الرئيسية في تطور الذكاء الاصطناعي من 0 إلى 1 من خلال عشرة من أبرز الشخصيات. سترى:
- كيف تم "تسمية" و"تعريف" حلم عظيم.
- كيف تصارعت واندمجت مسارات التكنولوجيا "الرمزية" و"الاتصالية".
- كيف صمد ثلاثة من "آباء التعلم العميق" خلال الشتاء، ليشهدوا في النهاية انتعاشًا في هذا المجال.
دع "الذكاء" ينتقل من الفلسفة إلى العلم
أي ثورة تكنولوجية عظيمة غالبًا ما تنبع من سؤال مذهل. وهذا ينطبق بشكل خاص على الذكاء الاصطناعي (AI). قصته لا تبدأ بآلة صاخبة أو سطر من الشيفرة السحرية، بل تنبع من تجربة فكرية طرحها عالم رياضيات عبقري على الورق. هذا الشخص وسؤاله، جلبا مفهوم "الذكاء" الذي كان يتردد في قاعات الفلسفة لآلاف السنين، إلى ساحة العلم الحديث. إنه آلان تورينغ (Alan Turing).
في عام 1950، عندما كانت علوم الكمبيوتر في بداياتها، كانت الآلات ثقيلة وبطيئة، ولا تستطيع إلا تنفيذ العمليات الأساسية. ومع ذلك، كانت أفكار تورينغ قد تجاوزت حدود عصره. في ورقته البحثية الرائدة "الآلات الحاسوبية والذكاء"، طرح سؤالًا يبدو بسيطًا ولكنه عميق: "هل تستطيع الآلات التفكير؟" أدرك تورينغ بذكاء أن مناقشة تعريف "التفكير" مباشرة ستقود إلى مستنقع فلسفي لا نهاية له. لذا، حول السؤال إلى لعبة يمكن اختبارها - "لعبة المحاكاة" (The Imitation Game)، المعروفة لاحقًا باسم "اختبار تورينغ".
قواعد اللعبة هي: يسأل مُستفسر، عبر النص، كائنين مجهولين، أحدهما إنسان والآخر آلة. إذا لم يستطع المُستفسر التمييز بينهما بعد فترة كافية، يمكننا القول إن هذه الآلة قد اجتازت الاختبار، وأظهرت سلوكًا ذكيًا لا يختلف عن الإنسان. وهذا هو السبب في أن نقطة انطلاق الذكاء الاصطناعي فريدة جدًا: فهي ليست اختراعًا يهدف إلى حل مهمة معينة، بل هي تحدٍ يهدف إلى الإجابة على سؤال أساسي.
عظمة اختبار تورينغ تكمن في أنه قدم معيارًا قابلًا للتطبيق وقابلًا للتقييم لمفهوم "الذكاء" الغامض. لم يعد الأمر يتعلق بما إذا كانت الآلة تحتوي على روح أو وعي، بل يركز على سلوكها الخارجي. كما لو كنا نقول، لا نحتاج إلى فتح صندوق أسود لاستكشاف تركيبه الداخلي، بل يمكننا الحكم على قدراته من خلال مخرجاته. هذه الفكرة العملية حولت تأملًا فلسفيًا بحتًا إلى هدف هندسي يمكن للمهندسين والعلماء تحديه.
زرع تورينغ بذور فكرة، لكن لجعلها تنمو، كانت بحاجة إلى تربة خصبة وحديقة متحمسة. هذا الشخص ظهر بسرعة، وكان يُدعى جون ماكارثي (John McCarthy). في عام 1955، كان تورينغ قد توفي، لكن سؤاله كان يحفز مجموعة من العلماء الشباب عبر المحيط الأطلسي. في ذلك الوقت، كانت الأبحاث حول "الآلات المفكرة" موزعة عبر مجالات مختلفة، بأسماء متنوعة مثل "السيبرنتيك" (Cybernetics) و"نظرية الأوتوماتا" (Automata Theory) وغيرها.
شعر ماكارثي، أستاذ الرياضيات المساعد الشاب في كلية دارتموث، أن هذه الشرارات المتناثرة بحاجة إلى أن تُجمع في لهب متقد. خطط لتنظيم ورشة عمل تستمر لعدة أسابيع في صيف عام 1956، ودعا أذكى العقول في أمريكا لمناقشة إمكانية محاكاة الذكاء البشري بواسطة الآلات. في اقتراح المؤتمر الذي صاغه مع مارفن مينسكي (Marvin Minsky) وآخرين، كانوا مليئين بالتفاؤل العبقري، حيث أعلنوا أن "كل جانب من جوانب الذكاء يمكن وصفه بدقة، مما يسمح للآلات بمحاكاته".
لإعطاء هذا المجال الجديد هوية واضحة، كان ماكارثي بحاجة إلى اسم لامع. تجنب عمدًا استخدام "السيبرنتيك" المؤثر في ذلك الوقت، لأنه لم يرغب في أن يُنظر إلى هذا المجال الجديد كجزء من المجال الأكاديمي لمؤسس السيبرنتيك نوربرت وينر (Norbert Wiener). تذكر ماكارثي لاحقًا أنه ابتكر هذا المصطلح الجديد لتحديد الحدود، وتأسيس هوية أكاديمية مستقلة. الاسم الذي اختاره بعناية هو - "الذكاء الاصطناعي" (Artificial Intelligence).
لذا، أصبح مؤتمر دارتموث في عام 1956 "خلق الذكاء الاصطناعي". لم يُطلق فقط اسمًا رسميًا على هذا التخصص، بل الأهم من ذلك، جمع مجموعة من المفكرين ذوي الأحلام المشتركة معًا، وأسس البرنامج البحثي الأولي. خلال المؤتمر، عرض آلان نيويل (Allen Newell) وهيربرت سايمون (Herbert Simon) أول برنامج "يفكر" في التاريخ - "المنطق النظري" (Logic Theorist)، الذي يمكنه إثبات النظريات الرياضية باستخدام المنطق الرمزي مثل البشر، مما ألهم الحضور بشكل كبير.
ولادة اسم "الذكاء الاصطناعي" تعني أن قارة جديدة قد تم اكتشافها رسميًا. لقد أعطت جميع المستكشفين المتحمسين لـ "الذكاء الآلي" هوية مشتركة وراية موحدة. من الآن فصاعدًا، لم يعودوا مجرد رياضيين أو علماء نفس أو مهندسين يقاتلون بمفردهم، بل أصبحوا "علماء الذكاء الاصطناعي". لم يُطلق ماكارثي اسم هذا التخصص فحسب، بل ابتكر أيضًا لغة Lisp في عام 1958، والتي أصبحت أداة معالجة رمزية قوية، مما سمح للباحثين الأوائل في الذكاء الاصطناعي بتحويل المنطق والأفكار المجردة إلى برامج يمكن تشغيلها على الآلات.
من طرح تورينغ لسؤال فلسفي إلى منح ماكارثي اسمًا أكاديميًا، أكمل الذكاء الاصطناعي قفزته الحاسمة من 0 إلى 1. عرّف تورينغ الهدف النهائي، بينما دق ماكارثي جرس التجمع، وفتح أحد أعظم وأروع المسارات العلمية في تاريخ البشرية. بدأت هذه الرحلة بسؤال فلسفي عن "من نحن"، وانتهت بممارسة علمية تهدف إلى "خلق ذكاء جديد" باستخدام الشيفرات والخوارزميات.
أول مواجهة بين طريقين: تفاؤل العباقرة وواقع بارد
لماذا كان العلماء الأوائل في الذكاء الاصطناعي متفائلين جدًا؟
في فترة فجر الذكاء الاصطناعي، كانت الأجواء في هذا المجال مليئة بنوع من التفاؤل القريب من الهوس. كان جوهر هذه الثقة مستمدًا من اعتقاد بسيط وقوي - الرمزية. بقيادة مارفن مينسكي من معهد ماساتشوستس للتكنولوجيا، كان الجيل الأول من علماء الذكاء الاصطناعي يؤمنون بأن الذكاء البشري، بل وكل الأنشطة الذكية، يمكن تفكيكها إلى سلسلة من الرموز المنطقية والقواعد الشكلية. في نظرهم، لم يكن الدماغ سوى "آلة مصنوعة من اللحم"، طالما أننا نستطيع العثور على القواعد الصحيحة، يمكننا إعادة إنتاج عملية التفكير على الكمبيوتر.
لم يكن هذا الاعتقاد بلا أساس، بل كان مبنيًا على سلسلة من النجاحات المبكرة المثيرة. في عام 1956، ظهر برنامج يُدعى "المنطق النظري" (Logic Theorist)، الذي يُعتبر أول برنامج ذكاء اصطناعي حقيقي. لم ينجح هذا البرنامج فقط في إثبات 38 من النظريات الشهيرة في كتاب "المبادئ الرياضية"، بل وجد أيضًا طرقًا أكثر أناقة لإثبات بعضها مقارنة بالنص الأصلي. أعلن أحد مبتكريه، هيربرت سايمون، بحماس: "لقد اخترعنا برنامج كمبيوتر يمكنه التفكير غير الرقمي، مما حل مشكلة العقل والجسد القديمة". أثبت هذا الإنجاز للعالم أن الآلات يمكن أن تقوم بمهام ذكية إبداعية كانت تُعتبر في السابق حصرية للبشر. مثال آخر مشهور هو نظام SHRDLU، الذي يمكنه فهم وتنفيذ مهام معقدة مثل "ضع الهرم الأحمر الكبير على المكعب الأزرق" في عالم افتراضي من المكعبات من خلال تعليمات اللغة الطبيعية.
على الرغم من أن هذه النجاحات في "عالم الألعاب" كانت محدودة النطاق، إلا أنها كانت كمنارة تضيء الطريق نحو الذكاء العام. كانت هذه الإنجازات الملموسة تحفز سايمون ومينسكي وآخرين بشكل كبير. قدموا توقعات جريئة تبدو اليوم جريئة للغاية، مثلما تنبأ سايمون بأنه في غضون عشر سنوات، ستتمكن الآلات من هزيمة بطل العالم في الشطرنج، واكتشاف نظريات رياضية جديدة مهمة. في ذلك "العصر الذهبي"، كان الناس يؤمنون عمومًا أنه طالما استمروا في السير على طريق الرمزية، فإن تحقيق ذكاء آلي يضاهي الذكاء البشري هو مجرد مسألة وقت.
كيف جاء الشتاء الأول للذكاء الاصطناعي؟
ومع ذلك، سرعان ما اصطدم تفاؤل العباقرة بجدار بارد يسمى "الواقع". عندما حاول الباحثون في الذكاء الاصطناعي تطبيق تلك البرامج التي كانت تعمل بشكل جيد في "عالم الألعاب" على العالم الحقيقي المعقد، ظهرت المشاكل الأساسية للرمزية. أولاً، كانت الرمزية غير قادرة على التعامل مع "المعرفة العامة" و"عدم اليقين" المنتشرين في العالم الحقيقي. كانت قرارات البشر اليومية مليئة بالغموض والحدس والمعرفة الخلفية المفترضة، وكلها صعبة للغاية على الترميز كقواعد منطقية دقيقة.
على سبيل المثال، نعلم جميعًا أن "الماء رطب" و"الطيور تطير"، لكن إدخال هذه المعرفة اللامتناهية يدويًا إلى الآلة يكاد يكون مهمة مستحيلة. ثانيًا، كانت أنظمة الذكاء الاصطناعي تواجه عقبة قاتلة عند التوسع - "انفجار التركيب" (combinatorial explosion). وهذا يعني أنه عندما تزداد متغيرات المشكلة قليلاً، فإن الاحتمالات التي تحتاج الأنظمة إلى حسابها ستزداد بشكل أسي، مما يتجاوز بسرعة قدرة أي كمبيوتر على المعالجة.
مثل نظام SHRDLU، بمجرد أن يصبح "عالم المكعبات" الخاص به أكثر تعقيدًا قليلاً، ستنخفض أداؤه بشكل حاد، مما يجعله غير عملي. هذه القيود الأساسية جعلت تطور الذكاء الاصطناعي يتخلف كثيرًا عن الوعود التي تم تقديمها في البداية. بدأت مشاعر الإحباط تتسلل، وفي النهاية، انفجرت في عام 1973 من خلال وثيقة تُدعى "تقرير لايتهيل" (Lighthill Report). انتقدت هذه الوثيقة، التي كُتبت بتكليف من الحكومة البريطانية، بشدة: "لم تحقق أي من المجالات حتى الآن التأثير الكبير الذي تم وعده".
وجهت الوثيقة أصابع الاتهام إلى فشل أبحاث الذكاء الاصطناعي في حل المشكلات الواقعية، خاصةً عدم قدرتها على التعامل مع مشكلة "انفجار التركيب"، واستنتجت أن العديد من الأبحاث الأساسية في الذكاء الاصطناعي لا تستحق الاستمرار في التمويل. أدى نشر هذه الوثيقة إلى تقليص الحكومة البريطانية بشكل كبير لتمويل أبحاث الذكاء الاصطناعي، مما أجبر العديد من مختبرات الذكاء الاصطناعي في الجامعات على الإغلاق. كما أثرت هذه الموجة على الولايات المتحدة عبر المحيط، حيث بدأت وكالات التمويل تصبح أكثر حذرًا، وبدأت تفضل المشاريع قصيرة الأجل ذات الآفاق التطبيقية الواضحة.
وهكذا، بسبب الفجوة الكبيرة بين الوعود والواقع، شهد الذكاء الاصطناعي أول "شتاء" له. حتى أن مينسكي اعترف لاحقًا بأن "أكبر خطأ لنا... كان عدم إدراك مدى صعوبة المشكلة التي كنا نحاول حلها".
لماذا يُعتبر تعليم الذكاء الاصطناعي "قبول عدم اليقين" تقدمًا كبيرًا؟
بينما كانت طريق الرمزية في مأزق، جلبت مسار فكري مختلف تمامًا للذكاء الاصطناعي فجرًا جديدًا. كان رائد هذا الطريق هو الحائز على جائزة تورينغ، يوديا بيرل (Judea Pearl). قاد ثورة "الاحتمالات"، حيث كانت فكرته الأساسية هي: بدلاً من إجبار الذكاء الاصطناعي على فهم العالم من خلال منطق أبيض وأسود، من الأفضل تعليمه كيفية قبول ومعالجة "عدم اليقين". كانت سلاح بيرل الثوري هو "الشبكات البايزية" (Bayesian networks) التي اقترحها في أواخر الثمانينيات.
هذه نموذج رسومي بارع يمكنه تمثيل علاقات الاعتماد الاحتمالية بين المتغيرات المختلفة باستخدام هيكل رسومي بديهي. والأهم من ذلك، أنه يوفر مجموعة من الطرق الرياضية الدقيقة، مما يسمح للذكاء الاصطناعي بتحديث "معتقداته" حول احتمالية حدوث الأشياء بناءً على الأدلة الجديدة. وقد أظهر هذا في مجالات مثل التشخيص الطبي قوة هائلة. حاولت الأنظمة التقليدية استخدام قواعد صارمة "إذا... إذن..." للتشخيص، مثل "إذا كان المريض يعاني من الحمى، فقد يكون مصابًا بالإنفلونزا".
لكن الواقع أكثر تعقيدًا: قد تكون الحمى أيضًا عرضًا لأمراض أخرى، كما أن قوة الارتباط بين كل عرض ومرض تختلف. غالبًا ما تصبح هذه الأنظمة القائمة على القواعد المطلقة ضعيفة جدًا عند مواجهة معلومات غير مكتملة أو متناقضة. بالمقابل، فإن الطرق القائمة على الشبكات البايزية تختلف تمامًا. يمكنها بناء شبكة علاقات احتمالية تحتوي على أمراض متعددة وأعراض متعددة. عندما يدخل الطبيب "حمى المريض" كدليل، لن تصل النظام إلى استنتاج مطلق، بل سيقوم تلقائيًا بتحديث احتمالات جميع الأمراض ذات الصلة (مثل الإنفلونزا، الالتهاب الرئوي، إلخ) وفقًا لنظرية باي.
إذا تم إدخال "سعال المريض" كدليل جديد، سيقوم النظام مرة أخرى بإجراء حسابات، وضبط توزيع الاحتمالات، مما يوفر اقتراح تشخيص أكثر قربًا من الواقع، قائم على الاحتمالات. هذه التحول من السعي نحو "اليقين" إلى احتضان "عدم اليقين" هو تقدم فكري كبير. لقد منح الذكاء الاصطناعي القدرة على إجراء استدلالات معقولة واتخاذ قرارات في عالم حقيقي مليء بالغموض وعدم الاكتمال. لم توفر أعمال بيرل أدوات جديدة قوية للذكاء الاصطناعي للخروج من مأزق الواقع فحسب، بل تم تطبيقها على نطاق واسع في مجالات مثل الطب، التعرف على الصوت، وتشخيص الأعطال، والأهم من ذلك، أنها فتحت طريقًا جديدًا نحو ذكاء أقوى.
الصمود خلال الشتاء: انتعاش الشبكات العصبية و"الثلاثي العظيم"
عندما تلاشت موجة التفاؤل الرمزية، ودخلت أبحاث الذكاء الاصطناعي في "شتاء" طويل وبارد، انتقل معظم الباحثين والتمويل إلى مجالات أكثر عملية مثل الأنظمة الخبيرة. ومع ذلك، في هوامش الأكاديمية، كان هناك مجموعة صغيرة من الأشخاص الذين كانوا يؤمنون بشدة بأن الطريق الذي تم انتقاده من قبل مارفن مينسكي والذي كاد أن يُهجر - الاتصال والشبكات العصبية - هو الطريق الصحيح نحو الذكاء الحقيقي. كانوا هم الصامدون في الشتاء، أقلية من الأقلية.
كانت هذه الإيمان القوي، في النهاية، هي التي أشعلت الثورة الثانية في الذكاء الاصطناعي. كان زعيم هذه المجموعة هو الثلاثي العظيم في التعلم العميق: جيفري هينتون، يان ليكون، ويوشوا بنجيو.
ما هو "التعلم العميق"؟
لفهم مساهمات هؤلاء العلماء الثلاثة، نحتاج أولاً إلى الإجابة على سؤال أساسي: ما هو "التعلم العميق"؟ وما الفرق الجوهري بينه وبين الشبكات العصبية المبكرة؟ كانت الشبكات العصبية المبكرة، مثل "المدرك" (Perceptron)، بسيطة جدًا، وعادة ما تحتوي على طبقة أو طبقتين فقط. كان هذا مثل طفل مبتدئ في الرسم، لا يمكنه التعرف إلا على بعض الخطوط والألوان الأساسية. إذا كنت تريد منه التعرف على قطة، يجب عليك أولاً إخبارهم يدويًا بما هي ميزات القطة - "لها آذان مدببة"، "لها شوارب"، "لها وجه دائري".
تُعرف هذه العملية باسم "هندسة الميزات"، وهي تستغرق وقتًا طويلاً، وتكون غير فعالة، لأن العالم الحقيقي أكثر تعقيدًا بكثير. بينما التعلم العميق، كما يوحي الاسم، يركز على "العمق" - حيث يستخدم الشبكات العصبية التي تحتوي على العديد من الطبقات (من عدة طبقات إلى مئات الطبقات). هذه البنية متعددة الطبقات تمنحها قدرة قوية: التعلم التلقائي للميزات. يمكننا استخدام تشبيه أكثر حيوية لفهم ذلك: لم يعد الأمر يتعلق بتعليم الطفل كيفية الرسم، بل أعطيناه نظامًا كاملًا من القشرة البصرية.
عند رؤية صورة قطة، قد تتعلم الطبقة الأولى من هذه الشبكة "العميقة" التعرف على الحواف والزوايا الأساسية تلقائيًا؛ بينما تتعلم الطبقة الثانية بناءً على نتائج الطبقة الأولى، تجميع أشكال أكثر تعقيدًا مثل العيون والأذنين؛ وفي الطبقات الأعمق، ستتعلم التعرف على مفهوم "وجه القطة" أو حتى "القطة" بالكامل. العملية بأكملها هي من البداية إلى النهاية، من النقاط البكسلية الأصلية إلى الاستنتاج النهائي "قطة"، حيث تتعلم الآلة بشكل مستقل دون الحاجة إلى تعريف البشر لما هي "آذان مدببة" أو "شوارب".
هذه الطريقة في التعلم من المحدد إلى المجرد، خطوة بخطوة، هي الفرق الجوهري بين التعلم العميق والشبكات العصبية المبكرة، وهي مصدر قوتها.
"الثلاثي العظيم": أقلية أشعلت الشرارة في الشتاء
كان الإيمان المشترك بقوة "العمق" هو ما ربط هينتون، ليكون، وبنجيو معًا. خلال العقود التي تم فيها تجاهل الشبكات العصبية، واجهوا الشكوك الأكاديمية، مثل شعلة وحيدة، كل منهم يقاتل في اتجاه مختلف، لكنهم كانوا يتجاوبون عن بُعد، وفي النهاية حلوا المشكلة الأساسية التي جعلت التعلم العميق ينتقل من النظرية إلى الواقع.
- جيفري هينتون (Geoffrey Hinton): مؤسس جعل الشبكات العميقة "قابلة للتدريب" يُعرف هينتون بـ "أب التعلم العميق"، وأكبر مساهماته هي حل "كيف يمكن تدريب شبكة عميقة بشكل فعال" هذه المشكلة الأساسية.
في عام 1986، قام بالترويج مع زملائه لخوارزمية الانتشار العكسي (Backpropagation). تعمل هذه الخوارزمية مثل معلم صارم، عندما تقوم الشبكة بإجراء حكم خاطئ، يمكنها إرسال إشارة الخطأ من الطبقة الأخيرة إلى الوراء، لتخبر كل خلية عصبية في كل طبقة كيف يجب أن تعدل معلماتها لتحسين الأداء في المرة القادمة. جعل هذا الاختراق تدريب الشبكات العصبية متعددة الطبقات ممكنًا، وأسس لأساس مجال التعلم العميق بأكمله.
- يان ليكون (Yann LeCun): رائد جعل الذكاء الاصطناعي "يرى" العالم ركز ليكون على كيفية جعل الآلات "ترى" العالم. أدرك أنه لا يمكن معالجة الصور بنفس الطريقة التي يتم بها معالجة البيانات العادية. مستلهمًا من القشرة البصرية البيولوجية، طور في أواخر الثمانينيات الشبكات العصبية التلافيفية (Convolutional Neural Networks CNN).
تُحاكي CNN طريقة العين في التقاط المعلومات المحلية من خلال "نواة التلافيف"، وتقلل بشكل كبير من عدد معلمات النموذج من خلال "مشاركة الوزن"، مما يجعلها فعالة ودقيقة عند معالجة الصور. تم استخدام شبكة LeNet-5 التي صممها في عام 1998 بنجاح في نظام التعرف على الأرقام المكتوبة على الشيكات، مما جعلها نموذجًا للتطبيق التجاري الأول لـ CNN، ومهد الطريق لجميع اختراقات الرؤية الحاسوبية اللاحقة.
- يوشوا بنجيو (Yoshua Bengio): عالم جعل الذكاء الاصطناعي يفهم "اللغة" بينما كان ليكون يعلم الذكاء الاصطناعي كيفية "الرؤية"، كان بنجيو يفكر في كيفية جعل الذكاء الاصطناعي "يقرأ" و"يفهم".
كان يكرس جهوده لحل مشكلة "كارثة الأبعاد" في معالجة اللغة الطبيعية (NLP). قدم نموذج اللغة العصبية الاحتمالية، الذي قدم بشكل مبتكر مفهوم "تضمين الكلمات" (Word Embeddings). هذه التقنية تقوم بتمثيل كل كلمة في فضاء متجه مستمر عالي الأبعاد، مما يجعل الكلمات ذات المعاني القريبة قريبة من بعضها في الفضاء. على سبيل المثال، ستكون متجهات "الملك" و"الملكة" قريبة جدًا. هذا سمح للآلة بالتقاط العلاقات الدلالية بين الكلمات لأول مرة، مما أسس لأساس قوي لتطور جميع نماذج التسلسل مثل الترجمة الآلية وتحليل المشاعر.
حل أحد هؤلاء العلماء مشكلة "كيف نتعلم" (الانتشار العكسي)، وحل الآخر مشكلة "كيف نرى" (CNN)، وحل الثالث مشكلة "كيف نفهم" (تضمين الكلمات)، وتكمل أعمالهم بعضها البعض، مما يبني خريطة التكنولوجيا الأساسية للتعلم العميق الحديث.
2012 ImageNet: "الانفجار الكوني" الذي أشعل الثورة
على الرغم من أن "الثلاثي العظيم" قد أعد بالفعل نظرية الثورة، إلا أن إشعال هذه الثورة كان بحاجة إلى لحظة حاسمة. جاءت هذه اللحظة في عام 2012. كانت مسابقة ImageNet للتعرف على الصور على نطاق واسع (ILSVRC) بمثابة "الأولمبياد" في مجال الرؤية الحاسوبية، حيث تطلبت من الخوارزميات المشاركة التعرف على وتصنيف أكثر من مليون صورة، تغطي 1000 فئة. قبل عام 2012، كانت الفرق التي تستخدم طرق التعلم الآلي التقليدية تهيمن على البطولة، وكانت تحسين النتائج دائمًا صعبة.
ومع ذلك، في هذا العام، تغير كل شيء. شارك هينتون وطلابه - أليكس كريزيفسكي (Alex Krizhevsky) وإيليا سوتسكي (Ilya Sutskever) - بنموذج شبكة عصبية عميقة يُدعى AlexNet. كان AlexNet شبكة عميقة تصل إلى 8 طبقات، ولم يستخدم فقط بنية CNN التي طورها ليكون، بل استخدم أيضًا بشكل مبتكر دالة تنشيط ReLU وتقنية Dropout لتحسين الأداء ومنع الإفراط في التكيف، واستفاد من قوة حسابية هائلة باستخدام وحدتي GPU للتدريب المتوازي.
كانت النتيجة مدمرة. حصل AlexNet على المركز الأول بمعدل خطأ 15.3%، بينما كانت نتيجة المركز الثاني 26.1%. هذا الفارق الكبير الذي يزيد عن 10 نقاط مئوية أحدث زلزالًا في مجتمع الذكاء الاصطناعي. لم يعد الأمر مجرد تقدم طفيف، بل كان قفزة في الأبعاد. أثبتت هذه الانتصار بلا شك أنه مع توفر البيانات الكافية وقوة الحساب، فإن أداء التعلم العميق يتجاوز جميع الطرق التقليدية. لذلك، تم اعتبار مسابقة ImageNet في عام 2012 حدثًا محوريًا في تاريخ الذكاء الاصطناعي، وهو "نقطة الانفجار" لثورة التعلم العميق.
كما قال هينتون، "بعد ذلك، تحول تقريبًا كل بحث في الرؤية الحاسوبية إلى الشبكات العصبية". كانت هذه الانتصار بمثابة إطلاق صافرة، معلنة نهاية شتاء الذكاء الاصطناعي وبدء عصر جديد يهيمن عليه التعلم العميق. أخيرًا، جاء الضوء الذي انتظره الأقلية الذين صمدوا في الظلام لعقود.
من المختبر إلى العالم
خلق الذكاء الاصطناعي، انتشاره وتأملاته إذا كان الثلاثي العظيم في التعلم العميق قد وجد محركًا قويًا للذكاء الاصطناعي، فإن قصة ما بعد عام 2010 تتعلق بكيفية توصيل عجلة القيادة بهذا المحرك، وبناء الطرق، وفي النهاية التفكير في الاتجاه الذي ستقودنا إليه هذه التكنولوجيا.
تم دفع هذه العملية أيضًا من قبل عدد من الشخصيات الرئيسية، الذين أجابوا على ثلاثة أسئلة أساسية: كيف يتعلم الذكاء الاصطناعي "الخلق"؟ كيف يخرج الذكاء الاصطناعي من برج العاج؟ وماذا يجب علينا أن نفعل عندما يمتلك الذكاء الاصطناعي قوة هائلة؟ "التحول النوعي للذكاء الاصطناعي": إلهام إيان غودفيلو من مناظرة في حانة في عام 2014، كان إيان غودفيلو (Ian Goodfellow) لا يزال طالب دكتوراه في مونتريال، وكان مع أصدقائه في حانة.
أشعلت مناظرة أكاديمية حول كيفية جعل الكمبيوتر يولد صورًا واقعية إلهامه. في تلك الليلة، ابتكر إطارًا عبقريًا - الشبكات التنافسية التوليدية (Generative Adversarial Networks GAN). جوهر هذه الفكرة هو "التنافس". يتكون نظام GAN من شبكتين عصبيتين تتنافسان معًا: "مولد" (Generator) و"مميز" (Discriminator).
مهمة المولد هي التعلم من ميزات البيانات الحقيقية، ثم خلق "مزيفات" (مثل صورة وجه مزيف) تكاد تكون غير قابلة للتمييز. بينما يلعب المميز دور "المحقق"، حيث هدفه الوحيد هو التمييز بدقة بين البيانات الحقيقية والمزيفة التي أنشأها المولد. تشبه عملية التدريب لعبة صفرية لا تنتهي: يسعى المولد لخداع المميز، بينما يحاول المميز جاهدًا كشف الخداع.
في هذه العملية المتزايدة من التنافس، تتطور الشبكتان معًا. في النهاية، عندما لا يستطيع المميز التمييز بين الحقيقي والمزيف، فهذا يعني أن المولد قد اكتسب القدرة على خلق بيانات واقعية للغاية. كانت هذه الفكرة جديدة وقوية لدرجة أن يان ليكون، أحد الثلاثي العظيم في التعلم العميق، وصفها بأنها "أكثر الأفكار إثارة في مجال التعلم الآلي خلال العشرين عامًا الماضية". تمثل ولادة GAN تحولًا نوعيًا في تاريخ تطور الذكاء الاصطناعي.
قبل ذلك، كان الذكاء الاصطناعي أشبه بـ "مكتشف" مجتهد، بارع في التصنيف والتعرف والتنبؤ. بينما منح GAN الذكاء الاصطناعي هوية "الخلق"، مما أعطاه القدرة على إنتاج محتوى جديد ومعقد من العدم، وفتح الباب لعصر الذكاء الاصطناعي التوليدي (AIGC) الذي نعرفه اليوم.
المفتاح لنشر التكنولوجيا: أندرو نغ و"الكهرباء الجديدة"
إذا كانت التكنولوجيا الثورية ستبقى محصورة في المختبر، فإن قيمتها ستكون محدودة. لعب أندرو نغ (Andrew Ng) دورًا حاسمًا كـ "مبشر" في تحويل الذكاء الاصطناعي من أداة للنخبة القليلة إلى مهارة يمكن لملايين الناس حول العالم تعلمها وتطبيقها. كأستاذ في جامعة ستانفورد ومؤسس مشارك لـ Coursera، أصبح دوره في إطلاق دورة "التعلم الآلي" عبر الإنترنت في عام 2011 نقطة انطلاق لثورة الدورات التعليمية المفتوحة عبر الإنترنت (MOOC)، حيث جذب ملايين المتعلمين من جميع أنحاء العالم.
بعد ذلك، أطلق بالتعاون مع DeepLearning.AI دورات مثل "دورة التعلم العميق" و"الذكاء الاصطناعي للجميع" التي تستهدف غير التقنيين، مما خفض بشكل أكبر من عتبة الحصول على المعرفة حول الذكاء الاصطناعي. بحلول عام 2023، شارك أكثر من 8 ملايين شخص في دوراته. لم يقم نغ بنشر المعرفة فحسب، بل قدم أيضًا فكرة مؤثرة: "الذكاء الاصطناعي هو الكهرباء الجديدة" (AI is the new electricity).
يعتقد أنه تمامًا كما غيرت الكهرباء قبل مئة عام الزراعة والنقل والصناعة تقريبًا، فإن الذكاء الاصطناعي اليوم يعيد تشكيل جميع الصناعات بقوة غير مسبوقة. تشير هذه الاستعارة بدقة إلى مستقبل الذكاء الاصطناعي - ليس منتجًا معزولًا، بل بنية تحتية ستتغلغل في جميع جوانب المجتمع. كانت هذه الرؤية حول تطبيق الذكاء الاصطناعي في الهندسة والصناعة هي التي دفعت بشكل كبير عملية انتقال الذكاء الاصطناعي من البحث الأكاديمي إلى الممارسة الصناعية.
جرس إنذار أخلاقيات الذكاء الاصطناعي
تيمنيت غبرو والتأملات التي لا مفر منها عندما تبدأ قوة الذكاء الاصطناعي في النمو بشكل أسي وتدخل في قرارات المجتمع، يظهر سؤال جاد أمام الجميع: كيف نضمن أن هذه التكنولوجيا عادلة ومنصفة ومسؤولة؟ أصبحت عالمة أخلاقيات الذكاء الاصطناعي تيمنيت غبرو (Timnit Gebru) واحدة من أبرز "المبشرين" في هذا المجال. في عام 2018، نشرت غبرو مع زملائها دراسة رائدة بعنوان "Gender Shades".
وجدوا أن أنظمة التعرف على الوجه التجارية السائدة في ذلك الوقت كانت تعاني من تحيزات خطيرة: كانت دقتها قريبة من الكمال عند التعرف على الرجال ذوي البشرة الفاتحة، ولكنها ارتفعت إلى حوالي 35% عند التعرف على النساء ذوات البشرة الداكنة. كانت هذه الدراسة بمثابة جرس إنذار، حيث كشفت بوضوح كيف يمكن أن تضخم البيانات التدريبية التحيزات، مما يؤدي إلى ظلم منهجي للفئات المهمشة. أدت هذه الدراسة مباشرة إلى تحسين شركات مثل IBM وMicrosoft لخوارزمياتها لتقليل التحيز.
بعد بضع سنوات، عادت غبرو، التي كانت تشغل منصب مسؤولة مشاركة في فريق أخلاقيات الذكاء الاصطناعي في Google، إلى الواجهة بسبب ورقة بعنوان "مخاطر الببغاوات العشوائية: هل يمكن أن تصبح نماذج اللغة كبيرة جدًا؟". أشارت هذه الورقة بشكل حاد إلى التحيزات والتكاليف البيئية لنماذج اللغة الكبيرة، بالإضافة إلى المخاطر التي تنطوي عليها، حيث إنها لا تستطيع فهم المعاني الحقيقية، بل تكتفي بتقليد أنماط اللغة البشرية - مثل "الببغاوات العشوائية". أثارت هذه الورقة صراعًا بينها وبين الإدارة العليا في Google، مما أدى في النهاية إلى إجبارها على الاستقالة.
تُشير تجربة غبرو إلى دخول الذكاء الاصطناعي مرحلة جديدة. عندما لم يعد الذكاء الاصطناعي مجرد لعبة في المختبر، بل أصبح أداة قوية تؤثر على التوظيف، والموافقة على القروض، وحتى الأحكام القضائية، فإن فحص تحيزاته ومخاطره وتأثيراته الاجتماعية يصبح أمرًا بالغ الأهمية. تذكرنا أعمالها بأن التقدم التكنولوجي إذا انفصل عن الرعاية الإنسانية والمسؤولية الاجتماعية، فقد لا يجلب الرفاهية، بل قد يكون عبئًا جديدًا. من خلق غودفيلو، إلى نشر نغ، إلى تأملات غبرو، ترسم قصص هؤلاء الثلاثة الصورة الكاملة للذكاء الاصطناعي في العصر الجديد: تقنية تتمتع بإبداع غير محدود، تتداخل مع العالم بسرعة غير مسبوقة، بينما تجبرنا أيضًا على التفكير بجدية في كيفية التعايش معها.
تبدأ من سؤال
"هل تستطيع الآلات التفكير؟" كل تغيير عظيم غالبًا ما يبدأ بسؤال مذهل. ولادة الذكاء الاصطناعي (AI) هي واحدة من هذه الحالات. نقطة انطلاقها ليست آلة معينة، ولا سطرًا سحريًا من الشيفرة، بل هي سؤال فلسفي طرحه عالم الرياضيات البريطاني آلان تورينغ (Alan Turing) في منتصف القرن العشرين: "هل تستطيع الآلات التفكير؟" في ذلك الوقت، عندما كانت أجهزة الكمبيوتر بحجم الغرفة، بدا هذا السؤال كأنه شيء من روايات الخيال العلمي. لكن ما يميز تورينغ هو أنه لم يسمح لهذا السؤال بالبقاء في التأمل الفلسفي. صمم تجربة فكرية بارعة - "لعبة المحاكاة"، المعروفة لاحقًا باسم "اختبار تورينغ". تتجاوز هذه التجربة تعريف "التفكير" الغامض، وتطرح: إذا كانت آلة قادرة على إجراء محادثة مع إنسان، وكان أداؤها يجعل من المستحيل التمييز بينها وبين الإنسان، فهل يمكننا اعتبار هذه الآلة تمتلك ذكاءً؟
كان طرح هذا السؤال كفلاش يقطع الليل الطويل. لقد جلب لأول مرة حلم "خلق الذكاء" من عالم الأساطير والفلسفة إلى مجال يمكن اختباره وتحديه هندسيًا. لم يقدم تورينغ إجابات، لكنه أعطى جميع الخلفاء هدفًا واضحًا ورسم خريطة يمكن البدء في رسمها. أخبر العالم: ربما يمكن وصف الذكاء بدقة ومحاكاته. تم زرع شرارة هذه الفكرة في تربة خصبة للغاية.
عالم ما بعد الحرب العالمية الثانية، وخاصة في الخمسينيات، كان مليئًا بروح علمية غير مسبوقة وتفاؤل "يمكنني القيام بذلك". كان البشر قد استحوذوا للتو على الطاقة النووية، واخترعوا الكمبيوتر الإلكتروني، وفكوا شيفرة الحياة. جعلت انتصارات العلم الناس يعتقدون أنه بفضل حكمة البشرية والأدوات القوية الجديدة، لا يوجد تحدٍ كبير لا يمكن التغلب عليه. إذا كانت الآلات قادرة على حساب باليستيات المعقدة وكسر شيفرات الأعداء، فلماذا لا يمكننا المضي قدمًا ومحاكاة أو حتى امتلاك قدرة البشر على التعلم والاستدلال والإبداع؟
في ظل هذه الخلفية الزمنية، بدأت مجموعة من أذكى العقول وأكثرها رؤية في ذلك الوقت تنجذب إلى نفس الحلم. ومع ذلك، كانت شرارات أفكارهم متناثرة عبر الرياضيات، وعلم النفس، ونظرية المعلومات، وعلوم الكمبيوتر الناشئة. كانوا بحاجة إلى فرصة، لحظة تجمع هذه الجداول المتناثرة في نهر كبير. جاءت هذه اللحظة في صيف عام 1956. قدم عالم رياضيات شاب يُدعى جون ماكارثي (John McCarthy) مع مارفن مينسكي (Marvin Minsky) وناثانيال روشيستر (Nathaniel Rochester) وأب نظرية المعلومات كلود شانون (Claude Shannon) اقتراحًا جريئًا إلى مؤسسة روكفلر.
خططوا لعقد ورشة عمل صيفية تستمر لعدة أسابيع في كلية دارتموث في نيوهامبشير. كانت بداية الاقتراح مليئة بالتفاؤل والطموح في ذلك العصر: "نقترح إجراء بحث حول الذكاء الاصطناعي في صيف عام 1956... سيكون البحث قائمًا على فرضية أنه يمكن وصف كل جانب من جوانب التعلم أو أي خاصية أخرى للذكاء بدقة، مما يسمح للآلات بمحاكاته". لتوفير هوية واضحة لهذا المجال الجديد، ابتكر ماكارثي مصطلحًا جديدًا: "الذكاء الاصطناعي" (Artificial Intelligence).
لم يكن هذا الاختيار عشوائيًا. في ذلك الوقت، كان هناك مجال يُدعى "السيبرنتيك" (Cybernetics) الذي كان له تأثير كبير، حيث كان يدرس أنظمة التحكم والتغذية الراجعة في البيولوجيا والآلات. لكن ماكارثي أراد فتح اتجاه جديد يركز على تحقيق وظائف معرفية متقدمة مثل المنطق والاستدلال باستخدام الكمبيوتر، بدلاً من أن يُقيد بإطار السيبرنتيك. كانت ولادة هذا الاسم بمثابة "إعلان استقلال" مدوي، حيث قدمت راية مشتركة لجميع المستكشفين الذين يحملون نفس الحلم.
عُقدت هذه الورشة، التي أصبحت تُعرف لاحقًا باسم "مؤتمر دارتموث"، في صيف عام 1956 كما هو مقرر. لم تكن مثل مؤتمر أكاديمي صارم، بل كانت أشبه بعاصفة فكرية استمرت من ستة إلى ثمانية أسابيع. حضرها عمالقة مثل آلان نيويل (Allen Newell) وهيربرت سايمون (Herbert Simon) وري سولومونوف (Ray Solomonoff) الذين أصبحوا لاحقًا عمالقة في مجال الذكاء الاصطناعي. جاءوا من خلفيات متنوعة، وجلبوا وجهات نظر مختلفة من المنطق، وعلم النفس، والرياضيات، والهندسة.
كان أحد ذروات المؤتمر هو عرض برنامج "المنطق النظري" (Logic Theorist) الذي قدمه نيويل وسايمون. نجح هذا البرنامج في إثبات العديد من النظريات الرياضية في الكتاب الشهير "المبادئ الرياضية". لم يكن هذا مجرد عرض تقني، بل كان بمثابة إعلان للعالم بأن الآلات يمكن أن تقوم بمهام استدلالية رمزية كانت تُعتبر في السابق حصرية للبشر. أعطى هذا السؤال "هل تستطيع الآلات التفكير؟" إجابة أولية إيجابية ومرئية.
هذه هي "خلق الذكاء الاصطناعي". لم يكن نتاج نجاح لمرة واحدة في مختبر، بل حدث في تقاطع عظيم للأفكار. كانت أهمية مؤتمر دارتموث تكمن في ثلاثة أسباب: أولاً، أنه أطلق اسمًا على هذا المجال. من الآن فصاعدًا، أصبح "الذكاء الاصطناعي" له هوية رسمية، مما جذب التمويل والموهبة والاهتمام. ثانيًا، أنه وضع جدول أعمال أساسي. ناقش المؤتمر معالجة الرموز، والشبكات العصبية، ومعالجة اللغة الطبيعية، وهذه الموضوعات أصبحت المسارات الرئيسية لأبحاث الذكاء الاصطناعي في العقود التالية. ثالثًا، أنه أسس المجتمع الأولي. ربط هذا المؤتمر مجموعة من المفكرين المنعزلين في مجتمع أكاديمي، وعادوا إلى مؤسساتهم ليؤسسوا أول مختبرات الذكاء الاصطناعي (مثل معهد ماساتشوستس للتكنولوجيا، وجامعة كارنيجي ميلون، وجامعة ستانفورد)، وزرعوا بذور الأشجار العملاقة التي ستنمو لاحقًا. تم الإشادة بمؤتمر دارتموث باعتباره "اجتماع تأسيس الذكاء الاصطناعي". لقد حول السؤال العظيم الذي طرحه تورينغ إلى رحلة علمية مثيرة جذبت أجيالًا من أفضل العقول.
على الرغم من أن المشاركين كانوا متفائلين للغاية بشأن المستقبل، ولم يتوقعوا الصعوبات والشتاء القادم، إلا أن اللهب الذي أشعلوه لم ينطفئ أبدًا. بدأت القصة من سؤال، وانتهت بولادة تخصص. بدأت قصة الذكاء الاصطناعي.
خيالات العباقرة وجدران الواقع
بعد أن تم تسمية الذكاء الاصطناعي رسميًا في مؤتمر دارتموث، بدأ "العصر الذهبي" (حوالي 1956-1974) المليء بالتفاؤل والتوقعات الجريئة.
كان هؤلاء الرواد الأوائل في الذكاء الاصطناعي، مثل هيربرت سايمون ومارفن مينسكي، يؤمنون بأنهم قد حصلوا على مفتاح الذكاء الآلي. لم يكن ثقتهم بلا أساس، بل كانت مستمدة من سلسلة من النجاحات المذهلة التي حققوها في "عالم مصغر". من بين هذه الإنجازات المبكرة، كان برنامج "المنطق النظري" (Logic Theorist) هو الأكثر تمثيلًا. تم تطوير هذا البرنامج من قبل آلان نيويل، هيربرت سايمون، وJ.C. Shaw في عام 1956، ويعتبر على نطاق واسع أول برنامج ذكاء اصطناعي في العالم.
كانت مهمته إثبات النظريات الرياضية التي اقترحها وايت هيد ورسل في عملهم الضخم "المبادئ الرياضية". كانت النتائج مذهلة: لم ينجح "المنطق النظري" فقط في إثبات 38 من النظريات في الكتاب، بل وجد أيضًا طريقة أكثر بساطة وأناقة لإثبات أحدها مقارنة بالنص الأصلي. ألهم هذا الإنجاز الباحثين بشكل كبير، حيث أوضح بوضوح أن الآلات يمكن أن تقوم بمهام حسابية، بل يمكنها أيضًا القيام بأنشطة استدلالية معقدة كانت تُعتبر حصرية للبشر.
بعد ذلك، أطلق هذا الفريق في عام 1959 "حل المشكلات العامة" (General Problem Solver GPS). كانت ثورية في أنها حاولت محاكاة طريقة التفكير العامة التي يستخدمها البشر في حل المشكلات. فصلت المعرفة الخاصة بالمجال (مثل القواعد) عن استراتيجيات الحل العامة، مستخدمةً استراتيجية تُعرف باسم "تحليل الوسائل والأهداف"، حيث تحدد أهدافًا فرعية باستمرار للوصول إلى الإجابة النهائية. نجح GPS في حل مجموعة من الألغاز المنطقية الكلاسيكية مثل برج هانوي وإثباتات الهندسة، مما أعطى الأمل في إمكانية إنشاء "آلة تفكير" قادرة على حل المشكلات العامة عبر مجالات متعددة.
إذا كان GPS يُظهر قدرة الآلات على "التفكير"، فإن نظام SHRDLU في معهد ماساتشوستس للتكنولوجيا منح الآلات القدرة على "فهم" العالم المادي. في هذا "عالم المكعبات" الافتراضي الذي أنشأه تيري وينوجراد في عام 1970، يمكن للمستخدمين إعطاء أوامر للنظام باستخدام اللغة الإنجليزية اليومية، مثل "التقط المكعب الأحمر الكبير". كان SHRDLU قادرًا على تحليل الأوامر، وفهم السياق (على سبيل المثال، عندما تسأل "أي هرم؟"، سيطلب توضيحًا)، وتخطيط وتنفيذ سلسلة من الإجراءات (مثل الالتقاط، والتحريك، والتكديس)، بل يمكنه أيضًا الإجابة على الأسئلة حول حالة هذا العالم. كان نجاح SHRDLU يجمع بين فهم اللغة، والتخطيط الاستدلالي، وتنفيذ الإجراءات، مما جعل الناس يرون بوضوح شكل الروبوتات الذكية التي يمكنها التحدث والتعاون مع البشر كما في أفلام الخيال العلمي. كانت هذه الانتصارات في "عالم الألعاب" قد أثارت مشاعر تفاؤل هائلة.
تنبأ سايمون في عام 1965 بجرأة: "في غضون عشرين عامًا، ستتمكن الآلات من القيام بكل الأعمال التي يمكن للبشر القيام بها". وأيد مينسكي ذلك بقوله: "في غضون جيل واحد... سيتم حل مشكلة 'الذكاء الاصطناعي' بشكل أساسي". ومع ذلك، عندما حاولت هذه الخيالات العبقرية الانتقال من المختبر المثالي إلى العالم المعقد، اصطدمت بسرعة بجدار صلب وبارد. يتكون هذا الجدار من مشكلتين أساسيتين. الأولى هي "انفجار التركيب" (Combinatorial Explosion).
في عالم المكعبات البسيط، كانت الاحتمالات محدودة. لكن عندما تتوسع المشكلة قليلاً، مثل الانتقال من لعب الشطرنج إلى لعب "الجو"، أو من تخطيط تحركات عدد قليل من المكعبات إلى تخطيط حركة المرور في مدينة، فإن الاحتمالات التي تحتاج الأنظمة إلى حسابها ستزداد بشكل أسي، مما يستهلك بسرعة قدرة أي كمبيوتر، حتى الأكثر قوة في ذلك الوقت. كانت أناقة الذكاء الاصطناعي المبكر في "المشكلات البسيطة" تتلاشى أمام تعقيد الواقع. المشكلة الثانية كانت أكثر جوهرية - "نقص المعرفة العامة والسياق".
كان عالم البشر مليئًا بالمعرفة العامة الواضحة والسياقات الغامضة. على سبيل المثال، نعلم أن "الماء رطب"، و"الحبل يمكن سحبه ولا يمكن دفعه"، و"إذا تعرض شخص ما للمطر، فقد يصاب بالبرد". هذه المعرفة أساسية لدرجة أننا لا ندرك حتى وجودها. لكن بالنسبة لنظام ذكاء اصطناعي يفهم فقط المنطق والقواعد، كان هذا العالم غريبًا تمامًا. لم يكن بإمكانه فهم هذه المعرفة الضمنية، مما جعل قدرته على الاستدلال في السيناريوهات الحقيقية ضعيفة وسخيفة للغاية.
يمكن لـ SHRDLU فهم "التقاط المكعب"، لكنه لا يستطيع فهم ما يعنيه "التقاط وعد". أصبحت هذه المعضلة المعروفة باسم "تجذير الرموز"، حيث لا يمكن للرموز أن ترتبط بمعاني العالم الحقيقي، فجوة يصعب على الذكاء الاصطناعي الرمزي تجاوزها. أدى الفجوة الكبيرة بين التوقعات العالية والواقع القاسي إلى انتشار مشاعر الإحباط، وفي النهاية، أدت إلى "شتاء" الذكاء الاصطناعي الأول من خلال حدثين بارزين. كان الحدث الأول هو "تقرير لايتهيل" (Lighthill Report) الذي صدر في عام 1973 من قبل الحكومة البريطانية.
كتبت هذه الوثيقة، التي كتبها عالم الرياضيات جيمس لايتهيل، نقدًا قاسيًا لأبحاث الذكاء الاصطناعي في ذلك الوقت. أشارت الوثيقة بشكل حاد إلى أن الذكاء الاصطناعي لم يحقق أي تأثير كبير في مجالات الأتمتة ومعالجة اللغة، كما تم وعده. وجهت أصابع الاتهام إلى نقطتين ضعف رئيسيتين في أبحاث الذكاء الاصطناعي: الفشل في حل المشكلات الواقعية بسبب "انفجار التركيب"، وعدم القدرة على التعامل مع "المعرفة العامة". أدت هذه الوثيقة المؤثرة إلى تقليص الحكومة البريطانية بشكل كبير لتمويل أبحاث الذكاء الاصطناعي في الجامعات، مما أدى إلى توقف أبحاث الذكاء الاصطناعي في المملكة المتحدة.
كان الضربة الثانية قاسية أيضًا، حيث جاءت من مارفن مينسكي، أحد رواد مجال الذكاء الاصطناعي. في عام 1969، نشر مينسكي مع سيماور بايلت كتابًا بعنوان "المدرك" (Perceptrons). في هذا الكتاب، أثبتوا رياضيًا أن الشبكات العصبية، التي كانت تتوازى مع الرمزية، كانت تعاني من قيود أساسية. أثبتوا أن الشبكات العصبية ذات الطبقة الواحدة (أي "المدرك") هي نموذج خطي، ولا يمكنها حل بعض المشكلات الأساسية، مثل أبسط مشكلة "XOR".
كان هذا الاستنتاج صحيحًا، لكنه تم تفسيره على أنه "حكم بالإعدام" على مسار الشبكات العصبية بأكمله. أدى التأثير الكبير لهذا الكتاب إلى توقف التمويل تقريبًا لأبحاث الاتصال، مما جعل هذا الطريق، الذي كان يمكن أن يكمل الرمزية، يدخل في حالة من السكون لمدة تزيد عن عشر سنوات. وهكذا، تلاشت الحماسة بسرعة. أدت التوقعات العالية، والقيود النظرية التي يصعب تجاوزها، وسحب التمويل، إلى دفع الذكاء الاصطناعي إلى شتاء طويل.
اصطدمت خيالات العباقرة بجدران الواقع، وسقط المجال بأكمله من ذروة الضجيج إلى قاع الصمت، في انتظار الانتعاش التالي الذي كان يتسلل في الظل.
البحث عن مخرج في عدم اليقين
في أواخر الثمانينيات، واجه "العصر الذهبي" للذكاء الاصطناعي رياحًا قاسية. انهار سوق الأنظمة الخبيرة التي كانت تُعتبر ذات يوم واعدة، وتراجعت صناعة آلات LISP، وانخفضت حماسة الحكومة والشركات للاستثمار. دخلت أبحاث الذكاء الاصطناعي مرة أخرى في أدنى مستوياتها، وهو ما يُعرف في التاريخ بـ "شتاء الذكاء الاصطناعي الثاني".
ومع ذلك، على عكس الشتاء الأول الذي كان فيه الوضع هادئًا تمامًا، لم يتوقف تطور الذكاء الاصطناعي تمامًا هذه المرة، بل كان مثل نهر متجمد، حيث كانت السطح هادئًا، لكن تحت الجليد، كانت هناك تيارات خفية تتدفق. كانت إحدى هذه التيارات هي "العلوم الظاهرة" التي تسعى لإثبات قيمتها في مجالات محددة. بينما كانت الأخرى هي "التيار الخفي" الذي كان يجمع القوة في صمت، في انتظار الربيع. كانت المسار الأول هو استكشاف الرمزية للذكاء الاصطناعي في مواجهة التحديات. على الرغم من أن الأنظمة الخبيرة قد تراجعت بسبب تكاليف بناء قواعد المعرفة، وصعوبة التعامل مع عدم اليقين، إلا أن إرثها كان ثمينًا: لقد أثبتت أن الذكاء الاصطناعي قادر على حل المشكلات العملية في سياقات معينة، مما أضاء أول مصباح لتطبيق الذكاء الاصطناعي في الأعمال.
الأهم من ذلك، أنه من خلال التفكير في أسباب فشل الأنظمة الخبيرة، أشار مفكر واحد إلى اتجاه جديد لتطور الذكاء الاصطناعي. كان هذا الشخص هو يوديا بيرل (Judea Pearl). أدرك بيرل أن العالم الحقيقي مليء بعدم اليقين، وأن القواعد المنطقية البسيطة لا تكفي لوصف تعقيد العالم. أدخل الاحتمالات والاستدلال السببي إلى الذكاء الاصطناعي، وعلم الآلات كيفية التفكير باستخدام "الاحتمالية"، وكيفية اتخاذ قرارات معقولة في ظل المعلومات غير المكتملة.
لم يكن هذا مجرد إضافة مهمة للرمزية، بل كان خطوة حاسمة نحو انتقال الذكاء الاصطناعي من عالم مثالي منطقي إلى عالم حقيقي مليء بالمجهول والتغير. في الوقت نفسه، كانت هناك مسار أكثر خفاءً وثورية تتطور في هوامش الأكاديمية. كانت هذه هي أبحاث الاتصال، التي تمثلها الشبكات العصبية. كان مستكشفي هذه المسار هم "الغواصون العميقون". في ترسانتهم، أضافوا سلاحًا نظريًا قويًا. في عام 1986، أعاد جيفري هينتون وزملاؤه الترويج لخوارزمية الانتشار العكسي، وأثبتوا فعاليتها بشكل منهجي.
حلت هذه الخوارزمية بذكاء مشكلة تدريب الشبكات العصبية متعددة الطبقات، مما سمح للآلات بتعديل معلماتها الداخلية من خلال "التفكير" في الأخطاء، وبالتالي تعلم أنماط أكثر تعقيدًا. تذكر هينتون لاحقًا أنهم كانوا متفائلين بأن هذه الخوارزمية "ستحل كل شيء". ومع ذلك، لم يكن ضوء النظرية قادرًا على طرد شتاء الواقع على الفور. في التسعينيات، اصطدمت أبحاث الشبكات العصبية بسرعة بثلاثة جدران عالية: نقص القدرة الحاسوبية، نقص البيانات، والشكوك الأكاديمية من الزملاء. كانت أداء الكمبيوتر في ذلك الوقت ضعيفة، ولم تكن قادرة على دعم تدريب الشبكات الكبيرة.
في الوقت نفسه، كانت طرق التعلم الإحصائي مثل "آلات الدعم الناقل" (SVM) تؤدي بشكل أفضل وأكثر كفاءة في العديد من المهام مقارنة بالشبكات العصبية في ذلك الوقت، مما أدى إلى تدفق التمويل والموهبة إلى مجالات أخرى. تم اعتبار الشبكات العصبية مرة أخرى كوسيلة غير عملية، وواجهت أبحاثها صعوبات مالية وتجاهلًا. في ظل هذه الظروف الصعبة، اختار بعض الباحثين الصمود. كان يان ليكون (Yann LeCun) أحد أبرز هؤلاء.
في عام 1988، انضم إلى مختبر AT&T Bell، وواجه ضغوطًا من المجتمع الأكاديمي السائد، وكرس كل جهوده لتطوير نوع خاص من الشبكات العصبية - الشبكات العصبية التلافيفية (CNN). كان يؤمن بأن هذه البنية التي تحاكي القشرة البصرية البيولوجية هي المفتاح لجعل الآلات "ترى" العالم. كانت أهداف ليكون واضحة جدًا: جعل الآلات تتعرف على الشيكات المكتوبة بخط اليد. بعد سنوات من التكرار، قاد فريقه في عام 1998 لإطلاق نموذج LeNet-5 الكلاسيكي.
تم نشر هذه الشبكة بنجاح في الأنظمة التجارية، وبحلول أوائل القرن الحادي والعشرين، كانت تعالج حوالي 20 مليون شيك يوميًا، مما يمثل حوالي 10% من إجمالي تدفق الشيكات في الولايات المتحدة في ذلك الوقت. كانت هذه نجاحًا بارزًا. لم تكن مجرد انتصار تجاري نادر لتقنية الشبكات العصبية في الشتاء، بل كانت كالبذور المدفونة في التربة المتجمدة، تثبت للعالم أن هذه "التيارات الخفية" تحتوي على طاقة هائلة. أخبرت العالم: الشبكات العصبية ليست خيالًا، بل يمكنها حل مشكلات العالم الحقيقي، ولديها إمكانيات غير محدودة.
وهكذا، خلال التسعينيات وأوائل القرن الحادي والعشرين، تطورت مساران للذكاء الاصطناعي بشكل متوازي. استخدمت إحدى المسارات الاحتمالات والسببية، مما سمح للذكاء الاصطناعي بالبقاء "حيًا" في عالم الأعمال، وتعلمت التعايش بشكل أكثر نضجًا مع عدم اليقين؛ بينما كانت المسار الأخرى "تتسلل" في زوايا الأكاديمية، تحتفظ بأملها في الثورة القادمة. كانت هاتان القوتان، واحدة في العلن والأخرى في الخفاء، تضعان الأساس للانفجار الكبير القادم.
في هذه الأثناء، بدأت رياح "الشرق" من مجال الأجهزة في الظهور - حيث كانت وحدات معالجة الرسوميات (GPU) تمثل قوة حسابية هائلة تتناسب تمامًا مع احتياجات الشبكات العصبية. عندما تهب هذه الرياح من الأجهزة، أخيرًا، على أرض خصبة من القدرة الحاسوبية والبيانات والخوارزميات، ستبدأ ثورة تكنولوجية ستغير العالم.
من "رؤية العالم" إلى "خلق العالم"
في 30 سبتمبر 2012، شهدت مسابقة ImageNet للتعرف على الصور على نطاق واسع (ILSVRC) نقطة تحول تاريخية.
قدمت مجموعة مكونة من جيفري هينتون وأحد طلابه - أليكس كريزيفسكي وإيليا سوتسكي - نموذجًا يُدعى AlexNet. كانت أداؤه مذهلًا في مجال الرؤية الحاسوبية: كان معدل خطأ التعرف على الصور 15.3%، وهو أقل بـ 10.8 نقاط مئوية من المركز الثاني.
لم يكن هذا مجرد انتصار في مسابقة، بل كان بمثابة صافرة انطلاق. أثبت AlexNet من خلال أدائه الذي لا يمكن إنكاره أنه بفضل الشبكات العميقة، والبيانات الضخمة، وقوة الحساب الهائلة لوحدات معالجة الرسوميات، يمكن للآلات حقًا "رؤية" هذا العالم. من هنا، تم إشعال ثورة التعلم العميق، ودخل تطور الذكاء الاصطناعي عصرًا جديدًا. إذا كان AlexNet قد منح الذكاء الاصطناعي "عيونًا" غير مسبوقة، فإن بعد عامين فقط، منح باحث شاب الذكاء الاصطناعي "خيالًا" غير محدود.
في عام 2014، بينما كان لا يزال طالب دكتوراه، توصل إيان غودفيلو (Ian Goodfellow) إلى فكرة عبقرية أثناء مناقشة أكاديمية في حانة - الشبكات التنافسية التوليدية (Generative Adversarial Networks GAN). مبدأ GAN يشبه مسابقة دائمة بين "الرمح" و"الدرع". يتكون من شبكتين عصبيتين تتنافسان: "مولد" (Generator) و"مميز" (Discriminator).
مهمة المولد هي خلق بيانات (مثل الصور) تبدو حقيقية، بينما يسعى المميز إلى التمييز بين البيانات الحقيقية والمزيفة. في هذه العملية المستمرة من التنافس والتطور، يصبح المولد أكثر براعة في "التزوير"، مما يمكنه من خلق محتوى جديد يصعب على البشر تمييزه. من الوجوه عالية الدقة إلى الأعمال الفنية، وحتى الصور الطبية، جعل GAN الذكاء الاصطناعي يتحول من "مكتشف" و"محلل" إلى "خالق".
لم يعد الذكاء الاصطناعي مجرد رؤية العالم، بل أصبح لديه القدرة على خلق "عالم" جديد ورقمي. بينما كان الذكاء الاصطناعي يتقدم في مجال الإبداع البصري، كانت هناك تغييرات هيكلية أعمق تتشكل في الخفاء. في عام 2017، نشر فريق بحث من Google ورقة بعنوان "الانتباه هو كل ما تحتاجه" (Attention Is All You Need)، والتي قدمت هيكلًا جديدًا تمامًا - Transformer.
كان جوهر Transformer هو تصميم يُعرف باسم "آلية الانتباه الذاتي" (Self-Attention)، التي لم تكن قادرة فقط على التقاط العلاقات البعيدة في النص، بل حققت أيضًا حسابات متوازية فعالة، مما زاد بشكل كبير من سرعة تدريب النموذج وإمكانية التوسع. كانت ولادة هيكل Transformer بمثابة بناء أساس قوي للذكاء الاصطناعي، مما مهد الطريق لظهور نماذج اللغة الكبيرة (LLM) اللاحقة.
منذ إصدار OpenAI لأول نموذج GPT في عام 2018، بدأت هذه المسار التكنولوجي في التطور بسرعة. زادت معلمات النموذج وحجم البيانات بشكل أسي، مما أدى إلى تحول نوعي في قدرات الذكاء الاصطناعي، من توليد نصوص بسيطة إلى إجراء محادثات سلسة، وكتابة الشيفرات، وحتى إظهار قدرات "التعلم من عدد قليل من الأمثلة" المدهشة في GPT-3. امتدت قدرة الذكاء الاصطناعي من الصور إلى مجال اللغة، الذي يعد جوهر الذكاء البشري.
انتشار القوة والتأملات
من الهندسة إلى القيود الأخلاقية إذا كانت الانتصارات التكنولوجية ستغير العالم، فإن الانتقال من المختبر إلى الصناعة يتطلب "الكيلومتر الأخير".
في هذه العملية، لعب أندرو نغ وآخرون دورًا حاسمًا كمبشرين. كانوا ملتزمين بدفع الذكاء الاصطناعي نحو الهندسة والتعليم الجماهيري، وتحويل تقنيات التعلم العميق المعقدة إلى أدوات ودورات قابلة للتطبيق على نطاق واسع، مما سمح لآلاف المهندسين والمتعلمين بإتقان الذكاء الاصطناعي وتطبيقه، مما زاد بشكل كبير من انتشار قوة الذكاء الاصطناعي في جميع مجالات المجتمع. ومع ذلك، عندما تصبح قوة ما قوية بما فيه الكفاية، فإن ما تجلبه ليس فقط الفرص، بل المخاطر أيضًا.
في عام 2019، عندما أصدرت OpenAI نموذجها الجديد GPT-2، اتخذت موقفًا غير مسبوق من الحذر. بسبب القلق من أن قدرته القوية على توليد النصوص قد تُستخدم في إنشاء أخبار مزيفة، أو رسائل غير مرغوب فيها، أو حتى التنمر عبر الإنترنت، اختارت في البداية إصدار نسخة صغيرة فقط، واحتفظت بالنموذج الكامل. أثار هذا الإجراء نقاشًا حادًا في مجال التكنولوجيا حول "البحث المفتوح" و"الإفصاح المسؤول". في النهاية، بعد أن لاحظوا "عدم وجود أدلة قوية على سوء الاستخدام"، أصدرت OpenAI النموذج الكامل في نوفمبر من نفس العام.
كانت هذه الجدل حول إصدار GPT-2 مجرد قمة الجليد. مع انتشار قدرات الذكاء الاصطناعي التوليدية، بدأت تقنية "Deepfake" (التزوير العميق) تصبح مشكلة اجتماعية خطيرة. باستخدام الذكاء الاصطناعي لتغيير الوجوه أو إنشاء أصوات، يمكن بسهولة إنتاج مقاطع فيديو أو صوتيات مزيفة لشخصيات سياسية، مما يؤدي إلى نشر معلومات مضللة، وتقويض الثقة العامة، وحتى التدخل في العمليات الانتخابية. علاوة على ذلك، اكتشف الباحثون بسرعة أن هذه النماذج المدربة على بيانات الإنترنت الضخمة تعكس أيضًا التحيزات الموجودة في المجتمع البشري.
على سبيل المثال، أظهرت التحليلات أن GPT-2 يميل إلى ربط النساء بمهن أكثر تقليدية عند وصف المهن. في مواجهة هذه التحديات، بدأت أصوات جديدة ونقدية في الظهور في مجال الذكاء الاصطناعي. بدأ الباحثون في أخلاقيات الذكاء الاصطناعي، مثل تيمنيت غبرو، في الدعوة بصوت عالٍ: بينما نسعى نحو نماذج أقوى، يجب علينا أن نفحص بجدية التأثيرات الاجتماعية للتكنولوجيا، والتحيزات الخوارزمية، والمخاطر المحتملة. تشير الاتجاهات البحثية التي يدفعونها، من كيفية اكتشاف وتقليل التحيزات في النماذج، إلى كيفية إنشاء إطار حوكمة مسؤول للذكاء الاصطناعي، إلى دخول الذكاء الاصطناعي مرحلة جديدة تتطلب اهتمامًا جادًا من المجتمع وقيودًا.
من عام 2012، عندما جعل AlexNet الذكاء الاصطناعي "يرى" العالم، إلى GAN وTransformer اللذان جعلا الذكاء الاصطناعي "يخلق" العالم، إلى اليوم حيث يجب علينا التفكير في كيفية "تقييد" هذا الذكاء الاصطناعي المتزايد القوة. إن هذه القفزة التي تمتد لأكثر من عشر سنوات ليست مجرد قفزة في القدرات التكنولوجية، بل هي إعادة تشكيل عميقة لعلاقة الذكاء الاصطناعي بالمجتمع البشري. لم يعد الذكاء الاصطناعي مجرد أداة في مكتب المهندسين، بل أصبح قوة قوية تشكل واقعنا وتؤثر على مستقبلنا.
في الختام: ماذا سيسأل "تورينغ" التالي؟
عند النظر إلى رحلة الذكاء الاصطناعي التي تمتد لأكثر من سبعين عامًا، لا نرى اختراعًا وُلِد من ومضة عبقرية، بل سباق فكري يمتد عبر أجيال. بدأت هذه السباق الطويل بإطلاق أول صافرة من آلان تورينغ، الذي لم يخلق الذكاء الاصطناعي، بل عرّف نهاية المسار بأكمله بسؤال بسيط وعميق - "هل تستطيع الآلات التفكير؟". تم تمرير العصا إلى جون ماكارثي، الذي في مؤتمر دارتموث عام 1956، أطلق رسميًا اسم "الذكاء الاصطناعي" على هذا المجال الناشئ، مما منح الرواد هوية وراية مشتركة.
بعد ذلك، اندفع الرمزيون، مثل مارفن مينسكي، بتفاؤل إلى المرحلة الأولى، مؤمنين بأن الذكاء يمكن بناؤه باستخدام المنطق والقواعد، وحققوا إنجازات مبكرة رائعة. ومع ذلك، سرعان ما جعلت تعقيدات العالم الحقيقي تصطدم بجدار، مما أدى إلى الشتاء الأول للذكاء الاصطناعي. في فترة طويلة من الصمت، حافظ الثلاثي العظيم - جيفري هينتون، يان ليكون، ويوشوا بنجيو - على شعلة الاتصال، مؤمنين بأن الشبكات العصبية التي تحاكي الدماغ هي الطريق الصحيح.
في النهاية، جاءوا إلى الرياح المواتية من القدرة الحاسوبية والبيانات. عندما ظهر GAN لإيان غودفيلو، لم يعد الذكاء الاصطناعي مجرد مكتشف، بل أصبح خالقًا، مما فتح عصرًا جديدًا مثيرًا. بينما كانت التكنولوجيا تتقدم، كانت تحذيرات تيمنيت غبرو تمثل دخول السباق إلى مرحلة جديدة - حيث يجب علينا أن نبدأ في فحص الأخلاقيات والمسؤولية الاجتماعية لهذه القوة المتزايدة. من خلال خيوط التاريخ، يمكننا رؤية ملامح المستقبل بوضوح أكبر.
على سبيل المثال، لم تنتهِ المنافسة بين الرمزية والاتصال مع انتصار التعلم العميق. اليوم، تتجه نحو الاندماج في شكل "الذكاء الاصطناعي الرمزي العصبي"، مما يسمح للنماذج الكبيرة بامتلاك قدرات استدلالية منطقية وقابلية للتفسير بجانب قدراتها الإدراكية القوية. وبالمثل، فإن بروز أخلاقيات الذكاء الاصطناعي ليس مصادفة، بل هو مطلب حتمي لتطور المجتمع عندما تصل قوة الذكاء الاصطناعي إلى نقطة حرجة. عندما يبدأ الذكاء الاصطناعي في التأثير على التوظيف، وتشكيل الرأي العام، وحتى المشاركة في سرد التاريخ، يصبح من الضروري مناقشة عدالته وشفافيته ومسؤوليته الاجتماعية.
إذن، ماذا يعني لنا كأشخاص عاديين أن نفهم هذه التاريخ المكونة من تصادم الأفكار، وصراعات المسارات، وإصرار الأفراد؟ الجواب هو: يساعدنا في بناء إطار معرفي، وإزالة الغموض والقلق حول الذكاء الاصطناعي. عندما نفهم أن الذكاء الاصطناعي ليس "تكنولوجيا سحرية" ظهرت من العدم، بل هو نتاج سؤال طرحه تورينغ، وصدمة واجهها مينسكي، وإصرار هينتون لعقود، يمكننا أن ننظر إلى قدراته وحدوده بشكل أكثر هدوءًا، ونتفكر بشكل أكثر عقلانية في مكانته في حياتنا وعملنا، بدلاً من أن نكون مجرد ضحايا للتيار.
العصا التاريخية الآن في أيدينا. عرّف سؤال تورينغ "ما إذا كان بإمكان الذكاء الاصطناعي التفكير"، بينما السؤال الذي نواجهه اليوم هو "هل يجب أن نفعل ذلك" و"كيف نتعايش معه". إذن، ماذا سيسأل "تورينغ" التالي؟ هل سيكون حول طبيعة الوعي، أم حول حقوق الآلات، أم حول دور البشرية في عصر الانفجار الذكي؟ هذا السؤال ليس له إجابة قياسية. إنه معلق في المستقبل، ينتظر كل واحد منا، الذي يشهد، ويشارك، ويتأثر بهذه الثورة، أن يفكر ويجيب عليه معًا.
