الهدف: وعي الناس اكثر حول تاريخ الذكاء الاصطناعي
الفئه المستهدفه:عامه الناس
في البداية من الضرورة بمكان المرور على تاريخ مجال الرياضيات المرتبط بالذكاء الاصطناعي، والّذي جعل من الذكاء الاصطناعي
قابلًا للوجود، بالإضافة إلى ذلك تأتي أهمية الرياضيات من كونها العلم الّذي سيساعدنا في بناء ذكاء البرنامج. وما طرق الاستنتاج والاستنباط المستخدمة في معظم الخوارزميات إلا خير مثال على ذلك. لذا فإن أي تقدم علمي في الرياضيات سيُساعد في تقدم الذكاء الاصطناعي بطريقة أو بأخرى، وبالطبع الرياضيات ليس العلم الوحيد الّذي شارك في تقدم الذكاء الاصطناعي بل شاركت علوم أخرى مثل الفلسفة الّتي حاولت وصف عملية التفكير البشري على أنها معالجة ميكانيكية للرموز، وغيرها من العلوم مثل علم الإحصاء والاحتمالات.
سنركز على أهم النقلات النوعية الّتي ترتبط ارتباطًا مباشرًا مع الذكاء الاصطناعي وسنحاول تجنب أي تفاصيل أخرى ليس تقليلًا من شأنها ولكن في نهاية المطاف هدفنا التركيز على تاريخ الذكاء الاصطناعي وليس تاريخ الرياضيات ككلّ.
القرن التاسع عشر والبدايات
شهد الربع الثاني من القرن التاسع عشر بداية ظهور بذور الذكاء الاصطناعي على الرغم من أن الحواسيب لم تكُ موجودة بعد، إلا أن الذكاء الاصطناعي -كمنطق رياضي- أوجد لنفسه المكان المناسب وشقّ طريقه في الوسط العلمي فعندما قدم لنا العالم جورج بول نظريته الخاصة في المنطق الجبري والّتي سميت لاحقًا بالجبر البولياني وهي نظرية تعتمد في أساسها على تمثيل أي متغيرات في أي عملية رياضية على قيمتين فقط وهما 1 و0، وتشكل مجموعة متغيرات عبارات منطقية. ويمكن كتابة هذه العبارات وإثبات صحتها بطريقة مماثلة تمامًا للطرق المستخدمة في الجبر العادي. وكانت هذه النظرية الأساس الّذي نشأت عليها علوم الحاسب أيضًا.
التحديات الجديدة للرياضيات والآفاق المستقبلية
في هذه الأثناء كانت الرياضيات غير واضحة المعالم وكانت هنالك جهود كبيرة في تنظيم الطرق الرياضية ومن بين هذه الجهود كان هنالك المؤتمر الدولي للرياضيات والّذي ساعد في توحيد الجهود المبذولة وفي النسخة الثانية من هذا المؤتمر وتحديدًا في عام 1900 عرض عالم الرياضيات الألماني ديفيد هيلبرت في ذلك المؤتمر الذي أقيم في باريس 23 مسألة رياضية عصية على الحلّ (والتي تسمى أيضًا معضلات هيلبرت).
وقال هيلبرت إن هذه المسائل ستُحدد شكل الرياضيات في الـ100 سنة المقبلة، لأنه اختار مسائل ذات صلات وجذور بفروع متعددة في الرياضيات، بحيث أن السعي لحلها سوف يولد نظريات ونتائج جديدة. حُلّت حتى يومنا الحالي 16 مسألة. وأدى ذلك إلى بروز فروع رياضية جديدة. ويرى المتمعن في طريقة تطور رياضيات القرن العشرين أن سببها الرئيسي هو حلّ تلك المسائل مما أدى إلى حدوث ثورة عارمة في هذا العلم طيلة القرن الـ 20 وأعطته دفعة قوية ترتب عليها إنتاج غزير في جميع الاختصاصات الرياضية.
الدرس الّذي يمكن أن نتعلمه من مسائل هيلبرت أو من العقلية الكامنة بطريقة تفكيره هو أنه قد يكون من الصعب جدًا تحديد جميع الافتراضات الّتي تستخدم في أي فرع من الرياضيات. ولكن هذا الأمر لم يرق إلى عالمين من علماء الرياضيات وهما برتراند راسل وألفريد نورث وايتهيد وإنما حثهم على اعتناق هذا التحدي ومحاولة تجميع كلّ الفرضيات والمسلمات الرياضية بناءً على المنطق الجبري لجوتلوب فريجه الّذي كان حاضرًا بشدة آنذاك، وذلك في ثلاثة مجلدات تحت اسم "مبادئ الرياضيات" (Principia Mathematica) نُشرت عام 1910-1912-1913 على التتالي جاءت محاولة هاذين العالمين لتمثيل مجموعة من البديهيات وقواعد الاستنتاج في منطق الرموز، لنستطيع من خلالها -من حيث المبدأ على الأقل- إثبات جميع الحقائق الرياضية، كما حاولا من خلال هذا الكتاب تحديد الأسس الرياضية بدقة ليكون بذلك أول كتاب يناقش المبادئ الرياضية بتلك الطريقة آنذاك.
أحدث هذا الكتاب جلَبة كبيرة في الوسط العلمي لذا بدأت تظهر مجموعة من الأسئلة والتحليلات. وإحدى الأسئلة الّتي طرحت عمومًا في هذا الصدد وبعيدًا عن وضع البديهيات كحقائق منطقية عن أي منظومة رياضية، مثل مبادئ الرياضيات (Principia Mathematica):
- ماذا لو كان بإمكاننا استنتاج تناقض من البديهيات؟ (وهذا هو السؤال الّذي حفز العلماء على إيجاد مسألة عدم الاتساق).
- وماذا لو كان هناك بيان رياضي لا يمكن إثباته من خلال هذه المنظومة؟ (وهذا هو السؤال الّذي حفز العلماء على إيجاد مبرهنة عدم الاكتمال).
وفي عام 1931، نشر عالم رياضيات نمساوي شاب يدعى كورت غودل ورقة بحثية أحدثت صدمة ترددت أصداؤها في أنحاء مجتمع الرياضيين وأجبرتهم على إعادة النظر في علمهم. كانت هذه الورقة تحتوي على مبرهنة عدم الاكتمال. والّتي تحثُّ على التشكيك في معنى افتراض أن أمرًا ما صحيح في الرياضيات. كان التغير الناتج في فهمنا للرياضيات مثيرًا بقدر التغيير الّذي حدث في إدراكنا للهندسة، عند اكتشاف الهندسة غير الإقليدية في القرن التاسع عشر. اشتمل هذان الاكتشافان الكبيران على نظمٍ بديهية، ولا يمكن فهم كليهما على نحو صحيح دون تقدير ما يعنيه الرياضيون بكلمة «بديهي» والدور الّذي تلعبه المسلمات في الرياضيات.
أحدثت نظرية عدم الاكتمال ثورة في الرياضيات وألهمت أشخاص مثل جون فون نيومان، الّذي ابتكر نظرية الألعاب، وآلان تورنغ، الّذي يعد الأب الروحي للذكاء الاصطناعي وعلوم الحاسوب.
في وقت لاحق، أصبحت نظريات غودل لا تقدر بثمن فيما يتعلق بمجال علوم الحاسوب، لأن الاعتراف بأن هناك أشياء لا يمكن إثباتها يضع حدًا لما يمكن للحواسيب حله، وتجنب ضياع الوقت في محاولة عمل المستحيل.
الأخطاء في نص أحد المسائل يفتح آفاقًا جديدة
بالعودة لعام 1928 أعاد العالم ديفيد هيلبرت عرض المسائل مرة أخرى، وكان من بين هذه المسائل مسألة إثبات أنه هل يمكن الحصول على منهج أو مجموعة إجراءات يمكننا من خلالها الحكم على عبارة رياضية بأنها صحيحة أو خاطئة (أطروحة التقرير أو الحكم). لفتت هذه المسألة نظر الشاب آلان تورنغ وقرر أن يعتنق هذا التحدي ويبدأ بحل هذه المسألة وفي إطار حله لهذه المسألة احتاج آلان لآلة ذكية تستطيع أن تقرأ وتتعامل مع مخرجاتها. كان هذا يعني أن تتعامل الآلة مع رموز وحركات محددة تمكنها من القيام بعملها آليًا. آلة كاملة قادرة على فهم لغة مكونة من الأرقام 1 و 0 للقيام بهذه المهمة.
من خلال استعانته بعمل جورج كانتور (وهو العالم الّذي حاول حلّ هذه المسألة قبل تورنغ). توصل تورنغ إلى أن الآلة الّتي يفكر فيها والمطلوبة لإنجاز مسألة هيلبرت تحتاج لخطوات لا منتهية، وبالتالي فهي عاجزة عن إنتاج أي جواب. وإن وصول الآلة لجواب يعني أنها تتحرك في حلقة مغلقة بدايتها السؤال ونهايتها الجواب، وهذا يعني عدد منتهِ من الخطوات. آلة تيورينغ متورطة في خطوات لا منتهية وبالتالي فلا أمل من وصولها إلى جواب. واستنتج لاحقًا خطأ مسألة (معضلة) هيلبرت.
وعندما عَمِلَ في محطة بليتشلي بارك (وهي حديقة خصصت في الحرب العالمية الثانية لتكون المقر الرئيسي لعمليات فك الشيفرة الألمانية)، تمكن من تحقيق خمسة إنجازات مهمة في مجال تحليل الشفرات، وأثناء الحرب العالمية الثانية استطاع بناء جهاز كهروميكانيكي للمساعدة في فك شفرة الإشارات الخاصة بجهاز إنجما الألماني (Enigma Machine).سمي هذا الجهاز لاحقًا بآلة تورينغ وساعدت هذه الآلة على اختصار مدة الحرب بمدة 2-4 سنوات على الأقل. حاول آلان تورنغ بهذه الآلة إيجاد حلّ لمعضلة هيلبرت. وكان لآلة تورنغ الإثبات الحقيقي لقدرة الآلة على العمل بالمنطق الرياضي بدون تدخل البشر وفقًا لمدخلات وأوامر مسبقة. على الرغم من أن تورنغ برهن بآلته خطأ مسألة هيلبرت وذلك بإثباته عدم قدرة الرياضيات على حلّ جميع المشاكل عدا المشاكل القابلة للحلّ بحد ذاتها، إلا أنه استطاع أن يركز فقط على ما يستطيع تحقيقه باستخدام آلته الفكرية، ووصلوا بذلك لاستنتاج بأن أي مسألة تخضع للمنطق الرياضي يمكن تمثيلها بالقيمتين 0 و1.
أول شبكة عصبية اصطناعية
لم يكن آلان تورينغ الوحيد في المضمار (مضمار تطور الذكاء الاصطناعي) وإنما انضم لمرافقته بعض العلماء الأخرين مثل: عالم الفيزيولوجيا العصبية وارن ماكولوتش وعالم الرياضيات الشاب والتر بيتس عندما نشرا ورقة علمية في عام 1943 تتحدث عن كيفية عمل الخلايا العصبية ونمذجوا للمرة الأولى شبكة عصبية بسيطة باستخدام دوائر كهربائية ولهما تنسب الفكرة الأساسية للخلايا العصبية الإصطناعية الّتي نستخدمها في أيامنا الحالية. وفي الخمسينيات بدأ علماء الحواسيب بتطبيق هذه الفكرة في عملهم. وكان من بينهم العالم الأمريكي أرثر سامويل عندما أنشأ برنامج يُعلّم نفسه بنفسه لعبة الداما (checkers)، كما أنه أول من أبتكر مصطلح تعلّم الآلة وكان ذلك في عام 1952.
تكاتف الجهود ومحاولة توحيد المصطلحات
في ورقة بحثية نشرها تورنغ عام 1950 أثناء عمله بقسم الحاسوب بجامعة مانشستر، عبّر تورنج عن تساؤلاته حول قدرة أي آلة أو برنامج أو حاسوب على القيام بأفعال وتصرفات تدل على وجود ذكاء حقيقي ووعي خاص بها. ولكن كان لا بدّ في البداية الإجابة على بعض الأسئلة مثل: ما هو الوعي؟ هل يمكن لآلة اصطناعية التفكير حقًا؟ هل يتألف العقل من خلايا عصبية في الدماغ فقط؟ أم أن هناك شرارة غير ملموسة في جوهره؟
أقترح أن نتفكر في هذا السؤال: هل تفكر الآلات؟ يجب أن نبدأ أولًا بتحديد معنى واضح لمصطلحي «تفكير» و «آلة» - آلان تورنغ بتصرف
كانت هذه الأسئلة أساسية للكثير من الناس من أجل تحديد ماهيّة الوعي والذكاء ولكن ألان تورنغ قرر التغاضي عن جميع الأسئلة واستبدالها بسؤال واحدٍ أبسط بكثير من تلك الأسئلة: وهو هل يمكن للحاسوب التحدث مثل البشر؟ ولمعرفة ذلك اقترح تورنج لعبة تجمع فردين أحدهما حاسوب ذكي، والآخر محقق أو حكم، وكلّ منهم في غرفة منفصلة ويتواصلون سويًا عبر شاشة حاسوب ولوحة مفاتيح بدون معرفتهم بالشخص المقابل الّذي يحدثونه. وتهدف اللعبة لأن يميز الحكم بين الإنسان والحاسوب وعرفت لاحقًا باختبار الذكاء، طوّر هذا الاختبار لاحقًا وقُصر على حكمٍ واحدٍ وحاسوبٍ واحد، ومن خلال توجيه أسئلة مباشرة لكلّ منهما وتحليل الإجابة سيُحاول الحكم استنتاج إن كان شخصًا حقيقيًا أم مجرد حاسب. أي بعبارة أخرى، سيُعدُّ الحاسوب ذكيًا إن كان يصعب تمييز محادثته عن محادثة الإنسان.
ظهرت العديد من الاختبارات الأخرى لاحقًا، ومن الجدير بالذكر أنه لم يستطع أي حاسب اجتياز اختبار تورنغ حتى عام 2014 عن طريق حاسب يُدعى يوجين جوستمان (Eugene Goostman) إذ استطاع اقناع 33% من الحكام بأنه طفل روسي عمره 13 سنة.
بالعودة إلى وقت طرح اختبار تورنغ لم يكن في ذلك الوقت حديث عن إعطاء المصطلحات المناسبة للمفاهيم الموجودة. في الحقيقة إن البداية الرسمية لظهور مصطلح الذكاء الاصطناعي (Artificial Intelligence) كانت في عام 1956 وتحديدًا في كلية دارتموث في ولاية هانوفر في الولايات المتحدة الأمريكية، وذلك بفضل ورشة عقدت حرم الكلية ناقش فيها مجموعة من العلماء معظمهم من شركة IBM -نتيجة ازدهار الشركة آنذاك- البرمجيات الذكية والبرمجيات القادرة على التفكير حتى أطلقوا في نفس الورشة المصطلح الرسمي وهو الذكاء الاصطناعي لهذا المجال العلمي الصاعد.
بعدها توالى الاهتمام في هذا المجال وضخت الولايات المتحدة أموالًا طائلة لدعم المشاريع المتعلقة بهذا المجال، وبدى هناك تفائل كبير جدًا في هذا العلم الجديد، إذ في عام 1959 اطلق برنارد ويدرو ومارسيان هوف من جامعة ستانفورد نموذجًا لشبكة عصبية قادرة على إزالة صدى الصوت من المكالمات عبر خطوط الهاتف التقليدية لتكون بذلك أول شبكة عصبية تحلّ مشكلة في عالمنا الحقيقي، وأطلقوا عليها اسم مادلين (MADALINE) ولا تزال هذه الشبكة مستخدمة حتى يومنا الحالي.
التطور السريع لأشباه الموصلات
في هذه الأثناء كان العمل متواصلًا على تطوير تقنية أشباه الموصلات، وتحسين إمكانياتها التطبيقية مما جذب العديد من وسائل الإعلام على تغطية أخبار هذا المجال، ومن بين وسائل الإعلام كانت «مجلة إلكترونيكس» تجهز عددها 35 وعندما طلبت المجلة من الدكتور غوردون مور كتابة مقال مفصل يتناول فيه الحديث عن توقعاته حول ما سيحدث في صناعة مكونات أشباه الموصلات في الأعوام الـ10 القادمة.
انتهزت تلك الفرصة لمراجعة ما شهده هذا المجال من تطورات حتى ذلك الوقت. وكان ذلك في عام 1964، على ما أعتقد، وحينها نظرت إلى الأنواع القليلة من الرقاقات الّتي صنعناها، ولاحظت أننا انتقلنا من «ترانزستور» واحد على كلّ رقاقة إلى نحو ثمانية عناصر (ترانزستورات ومقاومات) على الرقاقة الواحدة. ثم أصبحت الرقاقات الجديدة حينها تحمل ضعف عدد العناصر، أي نحو 16 عنصرًا. أمّا في المختبر، فكنا نعمل على إنتاج رقاقات تتضمن نحو 30 عنصرًا، ونبحث إمكانية صنع رقاقات تحمل ضعف هذا العدد، أي نحو 60 عنصرًا للرقاقة الواحدة. وعندما وضعت تلك المعلومات على شكل رسم بياني، ابتداء من «الترانزستور» الوحيد على رقاقة في عام 1959، لاحظت أن عدد العناصر كان يتضاعف كلّ عام تقريبًا. وهكذا أجريت عملية استقراء، وتوقعت أننا سنواصل مضاعفة عدد العناصر على الرقاقة الواحدة كلّ عام، لنقفز من 60 عنصرًا في ذلك الوقت إلى نحو 60 ألف عنصر في غضون 10 أعوام. - غوردون مور بتصرف
أحدثت هذه المقالة نقلة نوعية في طريقة تعامل العاملين في هذا القطاع مع آلية تطوير أشباه الموصلات مع العلم بأن هدف الدكتور غوردون من المقال لم يكن بناء الأساسات العلمية والمثبتة لطريقة تطوير هذه التقنية، وإنما فقط لقياس واستنباط طريقة تطورها في الماضي، وجعلها أوضح للعيان، ولكن اتخذت الأمور منعطفًا حادًا آخر بعد هذا المقال وأصبحت المقالة خارطة الطريق المستقبلية لهذا المجال.
بدء حدوث شتاء الذكاء الاصطناعي
ومن جانب آخر لم يكن على الصعيد الإعلامي العالمي سمعة قوية لمجال الذكاء الاصطناعي، إذ كان هذا المجال جديدًا وغير واضح المعالم إلى حد ما، ولكن تغيرت الأمور كثيرًا بعد أن زار المخرج السينمائي ستانلي كوبريك العالم مارفن مينسكي في مختبر الذكاء الاصطناعي التابع لمعهد ماساتشوستس للتكنولوجيا (MIT) وذلك للسؤال عما إذا كان الحاسب الذكي الّذي كان يتخيله سيكون موجودًا فعلًا بحلول عام 2001. أكد له مينسكي بتفاؤل أنه سيكون موجودًا. أدى ذلك ذلك لولادة فيلم جديد أطلق عليه اسم A Space Odyssey ناقش هذا الفيلم الذكاء ااصطناعي بطريقة مختلفة ممّا جعل من مجال الذكاء الاصطناعي موضوعًا عالميًا وحديث الساعة.
في ذلك الوقت لم تكثر الأقاويل والمبالغات والشائعات من وسائل الإعلام فقط، وإنما تعدى ذلك إلى العلماء ليبالغوا في تفاؤلهم ونظرتهم المستقبلية. حتى أن أحد العلماء وهو هيربرت سايمون صرّح علانية بعام 1965 متحدثًا عن مستقبل الذكاء الاصطناعي فقال:
ستكون الآلات قادرة، في غضون عشرين عامًا، على القيام بأي عمل يمكن للإنسان القيام به - هيربرت سايمون
لم يقتصر الأمر عليه فقط وإنما انضم إليه العالم مارفن مينسكي الّذي أدلى عام 1967 بالتصريح التالي:
في غضون جيل واحد… ستُحلّ مشكلة خلق 'الذكاء الاصطناعي' بشكل كبير - مارفن مينسكي
أضف إلى ذلك أنه في ذلك الوقت كانت الولايات المتحدة في خضم الحرب الباردة، وكانت سياسة أعضاء الكونجرس أن يستثمروا مبالغ كبيرة في الذكاء الاصطناعي بصفته جزءًا من إستراتيجية أمنية شاملة، وتركزت الاستثمارات في تلك الفترة على الترجمة، خصوصًا الترجمة بين اللغتين الروسية والإنجليزية، وكان ذلك في السنوات ما بين 1954 و1966، واعتقد الكثير من العلماء البارزين بحتمية تحقيق إنجازات هامة، كما فاض مجال الذكاء الاصطناعي بالتبرعات من المموِّلين الأثرياء غير أن الإنجازات لم تتحقق بسرعة كما كان يعتقدون. وفي عام 1966 نشر سبعة علماء من اللجنة الاستشارية حول المعالجة الآلية للغة تقريرًا بطلب من الحكومة، وخلُص هذا التقرير إلى أن الترجمة الآلية كانت أبطأ وأكثر تكلفة وأقل دقة من الترجمة البشرية، وبعدها فرض الكونجرس على وكالة المشاريع والأبحاث الدفاعية المتقدمة (داربا) أن تقتصر في تمويلها على المشاريع ذات التأثير المباشر على المجهود العسكري؛ مما أدى إلى انتهاء العمل على الكثير من المشاريع العلمية الاستكشافية والأساسية، بما في ذلك أبحاث الذكاء الاصطناعي، والّتي كانت داربا تمولها بسخاء.
تنوعت العوائق الّتي تراكمت في طريق تطور الذكاء الاصطناعي ومع الأخذ بعين الاعتبار بأن الحواسيب كانت في ذلك الوقت غالية جدًا وبطيئة وغير قادرة على تحقيق ما يصبوا إليه أولئك العلماء. اتضح لاحقًا أن العلماء فشلوا في إدراك مدى صعوبة بعض المشاكل الّتي واجهتهم. وفي عام 1974، وردًا على انتقادات جيمس لايتهيل على تمويل أبحاث الذكاء الاصطناعي والضغط المستمر من الكونغرس لتمويل مشاريع أكثر إنتاجية، قطعت الحكومتين الأمريكية والبريطانية تمويلهما لمعظم الأبحاث الاستكشافية المتعلقة بمجال الذكاء الاصطناعي، وكانت تلك أول انتكاسة كبيرة تشهدها أبحاث الذكاء الاصطناعي.
الشتاء الأول للذكاء الاصطناعي 1974-1980
شكّل هذا الزخم الإعلامي الهائل في ظل الإنجازات المتواضعة الّتي حققها العلماء في تقدم الذكاء الاصطناعي إلى إحباط كبير للمجتمع الداعم لهذا المجال، وأدى ذلك لانخفاض تمويل مشاريع الذكاء الاصطناعي ليدخل مجال الذكاء الاصطناعي في مرحلة رقود كبيرة امتدت بين العام 1974-1980 وكان ذلك أول شتاء يواجهه الذكاء الاصطناعي منذ بدايته. ومن بين المشاكل الّتي واجهها آنذاك هي:
- ضعف سرعة المعالجة الحاسوبية: نتيجة التقنيات القديمة المستخدمة في تركيب المعالجات.
- ذاكرة التخزين المحدودة: والّتي كانت عنصرًا أساسيًا في تخزين المعلومات الّتي ستتدربُ عليها خوارزميات الذكاء الاصطناعي.
- عدم وجود كمية بيانات كافية: نتيجة عدم وجود ذاكرة تخزين كافية.
- الخوارزميات الرياضية: كان هناك صعوبات عديدة في إيجاد حلول مناسبة للعمليات الرياضية الّتي تقود إلى إيجاد الحل الأمثل في خوارزمية معينة، وتم إيجاد العديد من هذه الحلول لاحقًا ومن بينها Stochastic Gradient Descent.
أدت هذه المشاكل الرئيسية والكثير من المشاكل الأخرى إلى إعادة هيكلة مجالات متعددة متعلقة بمجال علم الحاسب والعمل على تطوير جوانب كثيرة مهمة رسمت لنا تاريخ تطور الحواسيب والذكاء الاصطناعي في آن واحد.
فترة الإزدهار
بعد الشتاء الأول الّذي مرّ به مجالة الذكاء الاصطناعي، وفقدِ الاهتمام من جميع الباحثين في هذا المجال تحولت الانظار إلى الأنظمة الخبيرة عندما أعادت الأمل في هذا المجال وكان بعض تطبيقاتها مثل أنظمة Xcon، والّتي حظت بشعبية كبيرة باعتبارها أنظمة متخصصة تحاكي عملية إتخاذ القرار مثل الخبراء المختصين، وقادرة على حلّ مشاكل محددة دقيقة مثل تشخيص الأمراض المعدية، أو تحديد المركبات الكيميائية، وذلك لأن المنطق الّتي تعتمد عليه هذه الأنظمة آنذاك هو الحلقات الشرطية "if-else" والّتي تخالف الفكرة الأساسية للذكاء الاصطناعي، ألا وهي القدرة على اتخاذ قرار من تلقاء نفسها أي بدون برمجة هذا القرار. ومع ذلك قفزت استثمارات المرتبطة بالذكاء الاصطناعي من بضعة ملايين من الدولارات في عام 1980 إلى مليارات الدولارات في عام 1987،
ظهرت في تلك الفترة قفزة معتبرة عندما أعلن تيري سيجنوسكي وتشارلز روزنبرغ من جامعة هوبكنز عن تطويرهما لشبكة عصبية اصطناعية قادرة على تعليم نفسها نطق الكلمات الجديدة والّتي أسموها شبكة NetTalk، تتألف هذه الشبكة من ثلاثة طبقات، واستطاعت تعلّم كيفية نطق 20000 كلمة بطريقة صحيحة في أسبوع واحد. ومع استمرار تدريبها أصبحت طريقتها في نطق الكلمات أكثر وضوحًا، وكان ذلك انجازًا متميزًا في ذلك الوقت.
ولكن الأجهزة المختصة بالذكاء الاصطناعي آنذاك لم تكن عملية إذ كانت مكلفة جدًا ومعقدة ومع ظهور الحواسيب المكتبية من تطوير شركة IBM وشركة آبل Apple، والّتي تفوقت بمراحل على جهاز ليسب (Lisp) الخصص للذكاء الاصطناعي والّذي صممه ريتشارد جرينبلات أحد أعضاء الفريق البحثي في الذكاء الاصطناعي الخاص بمعهد (MIT)، ونظرًا لتراكم المشاكل الخاصة بأجهزة الذكاء الاصطناعي بدءًا من تكلفتها العالية، وانتهاءً بصعوبة تحديثها، ولأن المستهلكين لم يعودوا بحاجة إلى شراء آلالات باهظة الثمن متخصصة فقط في تشغيل أجهزة الذكاء الاصطناعي أدى ذلك إلى انهيار في سوق هذه الأجهزة عام 1987 وبذلك انهار خط تصنيع كامل لتبدأ بذلك مرة أخرى فترة ركود ثانية يواجهها هذا المجال.
الشتاء الثاني للذكاء الاصطناعي 1987-1993
امتدت الفترة الثانية من شتاء الذكاء الاصطناعي بين عامي 1987-1993 كما أن معظم الناس فقدت اهتمامها بهذا المجال، وكان ذلك جليًا من خلال انخفاض عدد الحاضرين في مؤتمر AAAI الخاص بالذكاء الاصطناعي إلى 2000 زائر في عام 1991 بينما بلغت نسبة الحضور للمؤتمر في عام 1986 حوالي 6000 زائر، وبالمثل يمكن ملاحظة الزيادة في المقالات المتعلقة بالذكاء الاصطناعي منذ عام 1987 والوصول إلى أدنى نقطة لها في عام 1995 في صحيفة نيويورك تايمز.
وبالنظر إلى المخطط السابق الّذي يستعرض عدد تكرار الكلمات الدلالية الخاصة بالذكاء الاصطناعي والمتواجدة في 16625 ورقة بحثية علمية متعلقة بخوارزميات وتقنيات الذكاء الاصطناعي الموجودة آنذاك، نلاحظ أنه ظهرت العديد من الأوراق البحثية والخوارزميات الواعدة في تلك الفترة إلا أن الاهتمام الحقيقي ما زال منخفضًا بالموازنة مع السنوات الماضية وبهذا استمرت فترة الركود العلمي في مجال الذكاء الاصطناعي.
عودة الذكاء الاصطناعي إلى الساحة
في عام 1997 ولأول مرة في تاريخ البشرية تمكن جهاز حاسوب من التغلب على أقوى لاعب شطرنج في العالم وهو غاري كاسباروف في مباراته المشهورة مع حاسوب ديب بلو (Deep Blue)، كان هذا الحدث ما أشعل فتيل الاهتمام مرة أخرى ليتصدر الذكاء الاصطناعي في ذلك الوقت جميع عناوين الصحف والمجالات وليكون الحدث الأبرز في نشرات الأخبار.
وبعد هذا الحدث ظهر في نفس العام قفزة جديدة أخرى تحسب للذكاء الاصطناعي، وهي ظهور أول نظام للتعرف على الكلام (Speech Recognition) وسمّي Dragon NaturallySpeaking ويستطيع هذا النظام أداء ثلاث مهام رئيسية وهي:
- التعرف على الكلام.
- تحويل النص إلى كلام (Text-To-Speech).
- التعرف على الأوامر المنطوقة.
طورت هذا النظام شركة (Dragon Systems) والّذي أصبح لاحقًا جزءًا من نظام الويندوز Windows 95. كان هذا النظام حجر الأساس ومن الخطوات الكبيرة في مجال تفسير اللغة المنطوقة.
وفي عام 1999 استطاع مجموعة من العلماء في جامعة شيكاغو في تطوير آلية للتشخيص بمساعدة الحاسب (Computer-Aided Diagnosis) والّتي تعرف اختصارًا (CAD)، استعرضت هذه الآلية 22000 صورة شعاعية لسرطان الثدي، واستطاعت الكشف عن السرطان بدقة بلغت نسبتها 52٪، وعبر الدكتور كيونو دوي أستاذ الأشعة في جامعة شيكاغو أنه يمكن اعتبار هذه الآلية كرأي ثانٍ لفحص الصور الشعاعية للثدي، وبهذا يمكننا التغلب على الأخطاء البشرية الناتجة عن قلة خبرة الأطباء، أو عندما يكونوا مرهقين جدًا وتستطيع مساعدتهم من خلال إظهار نتائج بيانية للصور.
وآنذاك، بدأت العناصر الأساسية لتطوّر الذكاء الاصطناعي بالاكتمال وهي:
التأثير النفسي لقانون مور
تتمتَّع قلة قليلة من ظواهر الكون الرقمي بتأثيرٍ عميق على تكنولوجيا المعلومات والاتصالات مثلما يعادل تأثيرَ قانونِ مور. ويمكن صياغة هذا القانون بإيجازٍ: "يتضاعف عددُ الترانزستور على الدوائر المدمجة كلَّ عامين تقريبًا".
يتناول د. ييل بات -عالِم حاسوب بجامعة تكساس في أوستن- قانونَ مور في محاضراته بطرحه السؤال التالي على الحضور: ما هو موضوع قانون مور؟
- (أ) الفيزياء؟
- (ب) تكنولوجيا معالجة الحاسوب؟
- (جـ) المعمارية الدقيقة للحاسوب؟
- (د) علم النفس؟
الإجابة الصحيحة بحسب د. بات هي (د) علم النفس. يستند رأي الدكتور بات على أن قانون مور أصبح نبوءة تتحقَّق من تلقاء نفسها (أيِ اعتقادًا يعتقده الكثيرون وينتظرون تحقُّقَه وينسبون إليه ما يحدث). فمصمِّمو الدوائر المدمجة (ومديروهم) بشركات إنتل وهيتاشي وإيه إم دي وغيرها من مصنِّعي الشرائح تأقلموا نفسيًّا مع توقُّع أنه سيوجد جيلٌ جديد من الشرائح كلّ ١٨–٢٤ شهرًا، يتمتع بضِعْف سعة الإصدارات السابقة. وإنْ لم تطرح شركةُ إنتل رقاقاتٍ جديدةً بسعة محسَّنة؛ فإن مسئوليها التنفيذيين يُدرِكون أن شركة إيه إم دي أو غيرها من المنافسين سيطرحون رقاقاتٍ جديدةً.
المعالجات السريعة وظهور المعالجات المتخصّصة
انعكس تطور في صناعة أشباه الموصلات على طريقة تصنيع المعالجات فأصبح لدينا معالجات سريعة جدًا، وكلّ سنة تتضاعف هذه السرعة بفضل قانون مور، بالإضافة إلى ذلك أدى ظهور وحدات معالجة الرسوميات (GPU) إلى تعظيم عمل البرامج على المعالجة المتوازية مما أعطى سرعة أكبر على تنفيذ خوارزميات الذكاء الاصطناعي، وكان التنافس بين شركتي نيفيديا (Nvidia) وشركة ATi المختصين في بناء بطاقات المعالجة الرسومية محتدًا جدًا في هذه الفترة، بل وازدادت كثيرًا في مطلع القرن الواحد والعشرين، وكان جهد كِلا الشركتين منصبًا على زيادة مميزات البطاقات الرسومية خاصتها من خلال زيادة قدرتها على المعالجة المتوازية، وإضافة مختلف المزايا الأخرى، وكان لهذه المنافسة فضل كبير على تسريع عجلة تطور الذكاء الاصطناعي.
وشهد عام 2007 ظهور أول بطاقة معالجة رسوميات مخصصة للأغراض العامة والّتي استخدمت من أجل عمل أبحاث على البيانات الضخمة وفي مجال الذكاء الاصطناعي وتعلّم الآلة والتنقيب في البيانات، بالإضافة إلى ذلك تستخدم هذه البطاقات في يومنا الحالي في تعدين البتكوين. هل سبق وأن سمعت عن مزارع البتكوين؟.
تطور طرق التخزين وظهور حلول التخزين السحابي
لم يكن التطور الحاصل على مستوى رفع قوة المعالجة فقط، وإنما رافقه أيضًا تطورًا في طرق التخزين الموجودة ففي عام 1990 ظهر نوع جديد من الأقراص الصلبة بسعة تصل إلى 1.5 غيغابايت، ولم يكن هذا القرص الأول الّذي خرج إلى الساحة بل إن الأقراص الصلبة ظهرت منذ عام 1953، وطورت شركة ناسا في عام 1993 مكتبة تخزين كبيرة معتمدة على الأشرطة فقط تبلغ سعتها الإجمالية 1.2 تيرابايت، واستمر تطوّر السعات التخزينة بوَتيرة منخفضة إلى أن شهدنا انتشار شبكة الوِب الأمر الّذي دفع عجلة التطور للتقدم بسرعة كبيرة وبدأت تظهر آنذاك الحلول المتقدمة مثل الحلّ الّذي طرحته شركة أمازون للتخزين السحابي EC2، وخدمة التخزين البسيطة لأمازون (Amazon Simple Storage Service) وتدعى S3، وبذلك لم تعد سعة التخزين تشكل مشكلة كبيرة.
انتشار شبكة الوِب عالميًا والبيانات الضخمة
تزامنت بدايات القرن الواحد والعشرين مع انتشار شبكة الوِب (World Wide Web) انتشارًا عالميًا كبيرًا مما نتج عنه ظهور شركات ساعدت على تطويعه وتنظيمه (مثل: شركة أمازون وشركة غوغل) والّتي فتحت أفاقًا جديدة في طريقة تعامل الناس مع هذه الشبكة فأصبحت المعلومة بعيدة عنك بمقدار ضغطة زر واحدة كما احدثت تجارة جديدة سميت بالتجارة الإلكترونية.
من الجدير بالذكر أنه عادة ما تختلط المفاهيم بالنسبة لعامة الناس بين مصطلحي الإنترنت والوِب لذا من الواجب علينا توضيح الفرق بينهم إذ أن الوب ما هو إلا طريقة للوصول وتبادل المعلومات عبر استخدام الإنترنت ومحركات البحث. و"الوِب" هو في الواقع تطبيق من تطبيقات الإنترنت مثل تطبيقات الدردشة الآنية والبريد الإلكتروني تمامًا. أي أنه مجرد خدمة من خدمات الإنترنت.
ساعد هذا الانتشار الكبير على توليد بيانات كبيرة إذ قدرت كمية البيانات الّتي أُنشأت عام 2002 حوالي 5 إكسابايت (إكسابايت) وتقدر كمية البيانات المنشأة في وقتنا الحالي ب 33 زيتابايت (زيتابايت)، ويتوقع أن تنمو كمية البيانات المنشأة في عام 2025 إلى 175 زيتابايت.
عودة اهتمام الباحثين في مجال الذكاء الاصطناعي والمجتمع ككُلّ
من خلال المخطط الّذي استعرضنا فيه عدد تكرارات الكلمات الدلالية الخاصة بالذكاء الاصطناعي نلاحظ أن الزيادة الملحوظة في الاهتمام عادت من عام 2000 وليشهد المجال البحثي في هذا المجال أوج الاهتمام في عام 2005 الأمر الّذي ترافق مع تطور كبير في الخوارزميات فنلاحظ ظهور الخوارزمية التطورية وتطبيقاتها الكثيرة في مجالات عديدة والشبكات العصبية الاصطناعية وشبكات بايز وخوارزمية الدعم الآلي للمتجه.
هل تذكر المشاكل الّتي عانى منها تطور الذكاء الاصطناعي؟ باختصار كانت أبرز المشاكل الأساسية هي:
- ضعف سرعة المعالجة الحاسوبية.
- ذاكرة التخزين المحدودة.
- عدم وجود كمية بيانات كافية.
- الخوارزميات الرياضية.
لاحظ أن جميع المشاكل حُلّت بالفعل مع ذلك ظهرت العديد من المشاكل الأخرى، ولكن بالطبع ليست بضراوة المشاكل الأولى، ليشهد بذلك مجال الذكاء الاصطناعي صفحة جديدة في تاريخه وليعود بذلك إلى دائرة الضوء مرة أخرى، ولكن هذه المرة ستستمر طويلًا.
ظهرت بعدها العديد من التطبيقات العملية مدعومة من تقنيات الذكاء الاصطناعي وتعلّم الآلة في المجالات الصناعية وتوالت الإنجازات والتطبيقات العملية تباعًا والتي ذكرنا بعضها في المقال السابق ومن بين أبرز الأحداث الّتي أحدثت ضجة آنذاك هو إعلان شركة نتفليكس (Netflix) في عام 2006 عن جائزة تبلغ قيمتها مليون دولار لكل من يستطيع أن يأتي بخوارزمية توصية لأقتراح الأفلام المناسبة على المشتركين بشرط أن تكون أفضل وأسرع من الخوارزمية الّتي لديهم. لم يكن إيجاد خوارزمية بهذه المواصفات مهمة سهلة أبدًا ولكن فريق صغير من علماء الحاسب في شركة AT&T اعتنق التحدي وعكف على إيجاد الخوارزمية المناسبة وتكللت محاولتهم بالنجاح ولكن تطلب الأمر منهم ثلاث سنوات كاملة!
وبعدها انضمت جميع الشركات العملاقة مثل غوغل وفيسبوك إلى هذا المجال رسميًا الأمر الّذي شجع جميع الشركات الصغيرة الكبيرة الأخرى إلى التفكير جديًا في الأنضمام أيضًا ليصبح بذلك مجال الذكاء الاصطناعي مجالًا مزدهرًا وأساسيًا في أغلب شركات وادي السيليكون (Silicon Valley).
الخلاصة
بالطبع هنالك العديد من الأحداث الأخرى الّتي شاركت في تأسيس هذا المجال ولكننا حاولنا تسليط الضوء على أبرز المحطات الّتي شهدها مجال الذكاء الاصطناعي ومشتقاته مثل تعلم الآلة على مرّ السنوات، والآن بعد فهمنا إمكانياته وتطبيقاته وتاريخه الكامل نستطيع الآن الدخول فيه بخطوات واثقة وثابتة لمعرفته عن قرب وسبر أغواره بالمقالات الموالية.
المراجع
- Analyzing the Prospect of an Approaching AI Winter
- A history of machine learning
- Timeline of Computer History
- كتاب الكون الرقمي: الثورة العالمية في الاتصالات - الفصل الثاني نظرة تأمُّلية لقانون مور
طرح جميل ومنظم
ردحذفبوركت الجهود
ردحذفمقال رائع! أعجبتني طريقتك في التفكير وتقديم الأفكار. استمر في العمل الرائع."
ردحذفأتطلع إلى المزيد من مشاركاتك. أنت تبني مجتمعًا رائعًا حول هذا الموضوع.
ردحذفما أعجبني في مقالك هو التفرد في الأفكار. أنت تجعل الموضوعات التقنية تبدو مثيرة وممتعة."
ردحذف"مقال رائع، شكرًا! 🙌"
ردحذف