الذكاء الاصطناعيّ بين معارضيه ومؤيِّديه
الذكاء الاصطناعيّ بين معارضيه ومؤيِّديه
قراءةٌ في حربٍ تَجري في الغرب، ونحن عنها بمعزل
الذكاء الاصطناعيّ بين معارضيه ومؤيِّديه
قراءةٌ في حربٍ تَجري في الغرب، ونحن عنها بمعزل
في صباحٍ من أكتوبر 2024، رنّ هاتفٌ في لندن وآخر في كاليفورنيا. على الطرفَين، عالِمان من DeepMind: ديميس هاسابيس وجون جامبر. الرسالة من ستوكهولم: جائزة نوبل في الكيمياء. ليس لاكتشاف دواء، بل لأنّهما بنَيا برنامج ذكاءٍ اصطناعيّ — AlphaFold — كَسَر لُغزَ طيّ البروتينات في عُطلةِ نهايةِ أسبوع، بعد أن عَجَزَ العلمُ عنه نصف قرن.
في صباحٍ آخرَ من إبريل 2025، وقف شابٌّ من تكساس أمام بيت سام ألتمان، رئيس OpenAI، يَحمل قارورة كيروسين ولائحةً بأسماء قادة شركات الذكاء الاصطناعي. أطلق على نفسه "الجهادي البتلري" نسبةً إلى حربٍ خياليّة على الآلات في رواية "الكثيب".
صباحان. عالَمان. وذكاءٌ اصطناعيٌّ واحد.
هذه المسافة بين الجائزة والقارورة، بين المُنقذ والمُدمِّر، هي ما يَدور حوله النقاش الكبير في الغرب اليوم. نقاشٌ نَستهلكه نحن في بلادنا عبر فلتر التسويق فقط: واجهةٌ لامعةٌ من الإنجازات، وحجابٌ على المعارك السبع. هذا المقال محاولةُ كَشفٍ لتلك المعارك، بعدلٍ بين الفريقَين، وبأملٍ في خَلاصةٍ تَنفع المهنيّ والمثقّف العربيّ.
أوّلاً: لماذا يُعارضون؟
ليس الغرب صفّاً واحداً. ثمّةَ شارعٌ يَغلي، وعلماءُ يَكتبون كتبَ نُذرٍ، وسياسيّون من اليمين واليسار يَلتقون أوّل مرّةٍ على عدوٍّ مشترك. أبعادٌ سبعةٌ تَحمل هذا الغليان:
البُعد الاقتصاديّ — رائحة الفقاعة
أوّل ما يُقلق المراقب الغربيّ الجادّ ليس الذكاء الاصطناعي نفسه، بل الجبل المالي المَبنيّ فوقه. في أواخر 2025، احتلّت خمس شركاتٍ وحدها 30٪ من مؤشّر S&P 500 الأمريكي، وهو أعلى تركيزٍ في نصف قرن (ويكيبيديا، فقاعة الذكاء الاصطناعي، 2026). شركة Nvidia وحدها تَجاوزت قيمتها خمسة تريليونات دولار، أعلى من ناتج كلّ دولة في العالم باستثناء أمريكا والصين. OpenAI تَعهّدت بإنفاق 1.4 تريليون دولار خلال ثماني سنوات، بينما إيراداتها 13 مليار سنويّاً. حتى سام ألتمان نفسه اعترف في أغسطس 2025 بوجود فقاعة. حتى جيمي دايمون، رئيس بنك JP Morgan، حذّر من انفجارٍ سوقيّ.
أرقامٌ تَنتهي بسؤال: إذا انفجرت هذه الفقاعة، فمَن يَدفع الثمن؟ ليس أصحاب رؤوس الأموال وحدهم. حسب نَشرة العلماء الذرّيّين، 62٪ من الأمريكيين الذين يَملكون أسهماً سيَخسرون. عاملٌ في تنيسي قد يَفقد مدّخراته بسبب رهانٍ لم يُقامر به.
البُعد العُمّاليّ — تآكل الياقة البيضاء
جيم فارلي، رئيس Ford، حَذَّر من أنّ الذكاء الاصطناعي سيَستبدل "حرفيّاً نصف عمّال الياقة البيضاء". دوغ ماكميلون، رئيس Walmart، قال إنّه "سيُغيّر حرفيّاً كلّ وظيفة" (CNBC، 2025). في الأشهر الخمسة الأولى من 2025، أَعلنت الشركات الأمريكية 696,309 عمليّة تَسريح، بزيادة 80٪ عن العام السابق. شركة Block سَرّحت نصف موظّفيها في فبراير 2026، وعَلَّل جاك دورسي ذلك بالذكاء الاصطناعي.
ولكن — وهذا ما يُسمّيه بعض الباحثين "AI Washing" أو غسيل الذكاء الاصطناعي — قد تكون الشركات تَستخدم الذكاء الاصطناعي ذريعةً لخفض التكاليف وإعادة الهيكلة التي كانت ستحدث على أيّ حال (Built In، 2026). الذريعة المريحة هذه لا تَنفع الموظّف المُسرَّح. بابٌ يُغلق، وعائلةٌ تَبحث عن غدٍ غامض.
البُعد البيئيّ — الآلة العَطشى
دراسةٌ منشورة في ScienceDirect في ديسمبر 2025 قَدّرت بصمة الذكاء الاصطناعي الكربونية بين 32.6 و79.7 مليون طنّ من ثاني أكسيد الكربون لعام 2025، مع استهلاك مياه بين 312.5 و764.6 مليار لتر — ما يُعادل بصمة مدينة نيويورك كاملة، وما يُقارب استهلاك العالم السنويّ من المياه المُعبّأة. في الولايات المتحدة، احتلّت مراكز البيانات أكثر من 4٪ من إجمالي استهلاك الكهرباء، و56٪ من هذه الطاقة من الوقود الأحفوريّ.
والأخطر على الإنسان العاديّ: أسعار الكهرباء السكنيّة قَفَزت 7.1٪ في 2025، أكثر من ضِعفَي معدّل التضخّم (تقارير المستهلك، 2026). المُزارع الفقير في أريزونا يَدفع من فاتورته كي يُدرَّب نموذجٌ جديد. أين العدالة في ذلك؟
البُعد الأخلاقيّ — السرقة المُنظَّمة
في مايو 2026، انضمّت دور النشر الكبرى — Hachette, Macmillan, McGraw Hill, Elsevier, Cengage — في دعوى ضدّ Meta ومارك زوكربيرغ. التُّهمة: تَدريب Llama على ملايين الكتب المسروقة من مواقع قرصنة، بترخيصٍ شخصيّ من زوكربيرغ نفسه (NPR، 2026). نقابة الكتّاب الأمريكية WGA كَشَفت أنّ Apple وAnthropic وMeta وNvidia وSalesforce دَرّبت نماذجها على حوارات أكثر من 53,000 فيلم و85,000 حلقة تلفزيونية، دون إذنٍ أو تعويض.
السؤال الذي يَطرحه الفنّان الغربيّ: حين تَتعلّم الآلة من لوحتي ثمّ تُنافسني، هل هذا اقتباس، أم سرقةٌ بثوبٍ أنيق؟
البُعد الوجوديّ — رهاب الفناء
في سبتمبر 2025، نَشر إليعازر يودكوفسكي وناثان سوارز كتاب "إن بناه أحدٌ، مات الجميع" (If Anyone Builds It, Everyone Dies). الحُجّة: بناء ذكاءٍ اصطناعيٍّ خارقٍ سيَقتلنا جميعاً، باحتماليّةٍ قريبةٍ من اليقين إن لم يُكبَح التطوير. والاسم الأكبر في هذا الجناح ليس متطرّفاً مَجهولاً، بل جيفري هينتون، الفائز بنوبل الفيزياء 2024، والمعروف بـ"عرّاب الذكاء الاصطناعي". اقترح هينتون بناء أنظمةٍ بـ"غرائز أُمومية" كي يَكون الحفاظ على البشر أَولى من أيّ هدفٍ آخر تُطوّره الآلة (Nature، 2026).
في المقابل، يَقف يان لوكون كبير علماء Meta والفائز بجائزة تورنغ رافضاً سيناريوهات يوم القيامة. حُجّته نموذجيّةٌ تَستحقّ التأمّل: القطّة أذكى من النملة، والنملة أذكى من البكتيريا، لكنّ القطط لا تَشنّ حروباً على النمل. الذكاء ليس الشرّ.
البُعد السياسيّ — الأرستقراطيّة الجديدة
في الأمريكتَين، يَلتقي اليمين والشمال على هذا العدوّ. السيناتور الاشتراكي بيرني ساندرز والحاكم المحافظ رون ديسانتس بَرزا معاً قائدَين في مواجهة بناء مراكز البيانات (TIME، 2026). الكاتب الصحفي برايان ميرشانت رَصد الوقود المشترك للناشطين كلّهم: "النزعة المعادية للديمقراطيّة الكامنة في صناعة الذكاء الاصطناعي الحديثة". حين يَلتقي اليسار واليمين على عدوٍّ، فاعلم أنّ شيئاً جوهريّاً يَحدث.
البُعد الإنسانيّ — ضمور القلب
نصف المراهقين الأمريكيين بين 13 و17 عاماً يَتحدّثون إلى رفقاء ذكاءٍ اصطناعيّ عدّة مرّات في الشهر، يَستشيرونهم في أسئلةٍ أخلاقيّة وفلسفيّة كانت تُوجَّه سابقاً إلى الأصدقاء والعائلة وقادة الإيمان (Common Sense Media، 2025). الهَوس بالشات بوتات رُبط بمأساة انتحار الفتى ذي الأربعة عشر عاماً سيول سيتزر في فلوريدا. استطلاع Pew 2025: خمسة أضعاف الأمريكيّين قَلقون مقابلَ المتحمّسين.
أبٌ يَفقد محادثاته العميقة مع ابنه. شيخٌ يَموت وحيداً يَستمع له تطبيقٌ بدل ابنته. حين نُعطي الآلةَ ساعاتٍ من نهارنا، أيّ شيءٍ نَأخذ منها مقابلَ ذلك؟
ثانياً: لماذا يُؤيِّدون؟
في المقابل، حُجّةٌ علميّةٌ صلبةٌ لا يَجوز إنكارها، وإلّا كنّا نحن أيضاً متعصِّبين.
الثورة العلميّة الحقيقيّة
جوائز نوبل 2024 في الفيزياء والكيمياء معاً مَنحت أربعةً من روّاد الذكاء الاصطناعي: هوبفيلد وهينتون في الفيزياء، وهاسابيس وجامبر وبيكر في الكيمياء (Nature، 2024). برنامج AlphaFold يَستخدمه أكثرُ من ثلاثة ملايين باحث في 190 دولة، منهم أكثر من مليون في الدول منخفضة ومتوسّطة الدخل (DeepMind، 2026). 30٪ من هذه الأبحاث تَتعلّق بفهم الأمراض.
ما كان يَستغرق شهوراً وسنوات، يَصنعه البرنامج في عُطلة نهاية أسبوع.
الطبّ — الأرض الأكثر إقناعاً
تقرير الرابطة الأمريكية لأبحاث السرطان (AACR) في يناير 2026: إجماع الخبراء على أنّ اختراقات السنة لن تَكون في جزيءٍ واحد، بل في كيفيّة ربط الذكاء الاصطناعي بالطبّ الدقيق والمناعيّ والكشف المبكّر. في اكتشاف الأدوية، شَهد 2025 أعلى قَفزةٍ سنويّةٍ في تقديمات IND لجزيئاتٍ صَمّمها الذكاء الاصطناعي (Drug Discovery Online، 2025). شركة Insilico Medicine صَمّمت جزيء PROTAC بآليّةٍ مزدوجةٍ يَستهدف PKMYT1، وهو هدفٌ سرطانيٌّ بالغ الصعوبة، ونُشر في Nature Communications.
حين يَنتظر مريضُ سرطانٍ تشخيصاً مبكّراً، أيّ موقفٍ أخلاقيٍّ يُبرّر إبطاء أداةٍ تَسبق العين البشريّة في كَشف الورم؟
بيانات الإنتاجيّة
مراجعةٌ منشورة في International Center for Law & Economics في فبراير 2026 تَجد أنّ 35.9٪ من العمّال الأمريكيين استَخدموا الذكاء الاصطناعي التوليديّ بحلول ديسمبر 2025، مع تأثيرات أجورٍ إيجابيّة، ودون انخفاضاتٍ ذات دلالةٍ إحصائيّة في فُرص العمل في المهن المعرّضة. والأهمّ: المكاسب أَقوى لدى العمّال الأقلّ أداءً في البداية، ممّا يُنتج "ضغطاً للمهارات" لا "نُخبويّةً للنخبة". الذكاء الاصطناعي، عند تطبيقٍ صحيح، لا يُغني الغنيّ، بل يَرفع المتأخّر.
ديمقراطيّة المعرفة
في 1984، اكتشف العالم التربويّ بنجامين بلوم ما سَمّاه "مشكلة 2 سيغما": الطلاب الذين يَحصلون على دروسٍ فرديّة يَتفوّقون بانحرافَين معياريَّين على أَقرانهم — أيّ أنّ الطالب المتوسّط المُدرَّس فرديّاً يَتفوّق على 98٪ من زملائه في الفصول الجماعيّة. سَمّاها "مشكلة" لأنّ المجتمع عاجزٌ عن توفير معلّمٍ خاصّ لكلّ طفل.
أربعون عاماً مَرّت. الذكاء الاصطناعي قد يَكون حلّ هذه المشكلة أخيراً. والأهمّ على بلادنا: حسب اليونسكو، هناك 250 مليون طفلٍ ومراهقٍ خارج التعليم الرسميّ اليوم، بزيادة ستّة ملايين منذ 2021. منطقة الشرق الأوسط وشمال أفريقيا فيها فجوةٌ هائلة. الذكاء الاصطناعيّ هنا ليس ترفاً، هو عدالة. إذا كان مَنع التعليم الجيّد عن طفلٍ فقيرٍ ظُلماً، فكيف نَستسيغ تأخير أداةٍ قد تَرفعه؟
الفلسفة التسارعيّة
في الغرب، تيارٌ صريحٌ يَقول: "أَسرعوا، ولا تَتباطؤوا". أبوه الروحيّ هو مارك أندريسن، الذي وَقّع في أكتوبر 2023 على "بيان التفاؤل التكنولوجي" الذي يُحاجج بأنّ مَن يُطالبون بتنظيم الذكاء الاصطناعي لمخاطر وجوديّة هم جزءٌ من "ذُعرٍ أخلاقيّ". الرؤية: عالَمٌ تَصبح فيه الطاقة والذكاء "أَرخصَ من أن يُقاسا"، وكلّ البضائع كالأقلام الرصاص. تيار e/acc أو التسارعيّة الفعّالة.
ثالثاً: السكين والكأس — الإطار الفلسفيّ الصحيح
الإطار الذي يَلتقي عنده العقلاء من الفريقَين: الذكاء الاصطناعي أداةٌ، لا قَدَر. السكين تَقطع الطماطم أو تُؤذي البشر. الكأس تُملأ بالكحول أو بالحليب.
لكنّ هذا الإطار يَحتاج تنقيحاً. بعض الأدوات تَختلف عن السكين في شيءٍ جوهريّ: السكين لا تَنمو في يدك. لا تَتعلّم منك ثمّ تُقرّر هي. لا تَتحدّث عنك مع مليار شخصٍ آخر في الثانية الواحدة. الفيلسوف الكنديّ مارشال ماكلوهان كَتب: "نحن نُشكّل أدواتنا، ثمّ تُشكّلنا أدواتنا". الأداة تَنفُذ إلى صاحبها أيضاً.
التاريخ يُذكّرنا بدرسٍ ثقيل: النازيّة جَنّدت كبار العلماء لتُجري تجارب على البشر. يوزف منغله لم يَكن جاهلاً، كان طبيباً بالدكتوراه. فيرنر فون براون، مهندس صواريخ V2 التي قَتلت آلاف اللندنيّين، استَقبلته أمريكا بترحاب، فصَمّم لها صاروخ Saturn V الذي أَوصل الإنسان للقمر. شركة IBM وَفّرت بطاقاتها المثقّبة للنازيّين لتنظيم سجلّات معسكرات الإبادة، حسب الكتاب التوثيقيّ "IBM and the Holocaust" لإدوين بلاك.
ذكاءٌ بلا ضمير. تقنيّةٌ بلا مرجعيّة. وما يَصل، بحسب التعريف الأوسع الذي يَستخدمه المتحف التذكاريّ الأمريكي للهولوكوست (USHMM) والمؤرّخ دونالد نيويك، إلى نحو 17 مليون ضحيّة للنظام النازيّ: ستّة ملايين يهوديّ في الهولوكوست، و3.3 مليون أسير حرب سوفييتيّ ماتوا جوعاً، ونحو مليونَي بولنديٍّ مدنيّ، وأكثر من 250,000 من الغجر (الروما والسنتي)، وأكثر من 250,000 من ذوي الإعاقة، إضافةً إلى آلاف شهود يهوه، والمثليّين، والمعارضين السياسيّين. أرقامٌ تَتجاوز 28 مليوناً إذا أُدخلت كلّ الضحايا المدنيّين تحت الاحتلال النازيّ في أوروبا.
الدرس الحقيقيّ ليس أنّ "العلماء فَعلوا أشياء سيّئة". الدرس أنّ منظومة العلم نفسها — مراجعة الأقران، الأخلاقيّات المهنيّة، رقابة الدولة، صوت الضمير الجمعيّ — كلّها انكفأت أو شُلّت. لم يَكن هناك مَن يَقول: قف.
والمرآة اليوم: مَن يَقول لـOpenAI أو DeepMind أو Anthropic: قف؟
رابعاً: المشكلة البِنيويّة — هَيمنة سيليكون فالي
هنا تَكمن أعمق نقطةٍ في النقاش، وأَصدقها. سامُ ألتمان قاد انقلاباً على مجلس إدارة OpenAI الذي حاول كَبحه في نوفمبر 2023، وعاد للسلطة في خمسة أيّام. الشركة التي أُسّست رسميّاً كـ"غير ربحيّةٍ لخدمة البشريّة" تَحوّلت إلى كيانٍ ربحيٍّ بتقييمٍ يَتجاوز نصف تريليون دولار. إيليا سوتسكيفر ويان لايكي، اللذان قادا فريق "السلامة الفائقة"، استَقالا في 2024. قال لايكي علناً: "ثقافة السلامة وعمليّاتها أَصبحت في المقعد الخلفيّ خلفَ المنتجات اللامعة".
ليست تخميناتٍ. صَرخاتُ مهندسين خَرجوا من قلب الحلبة.
والأعمق: حين تحدّث داريو أمودي، رئيس Anthropic، عن مخاطر الذكاء الاصطناعي، استَمرّ في تَسريع التطوير. السؤال الصادق: إن كنتَ تَعلم أنّ ما تَبنيه قد يُدمّر العالم، لماذا تَبنيه؟ والإجابة الأصدقُ من قادة هذه الشركات: لأنّ شخصاً آخر سيَبنيه إن لم نَبنه نحن، ويُفضَّل أن يَكون في يد "المُحسنين". منطق سباق التسلّح بعينه. كلٌّ يَرى نفسه أَرحم، والكلّ يَدفع العالم نحو الحافّة معاً.
الديمقراطيّة الأمريكيّة نفسها — التي صُمّمت لمحاسبة المحتكرين منذ قانون شيرمان عام 1890 — تَعجز. قضيّة Google استَغرقت سنوات. قانون الذكاء الاصطناعي الأوروبيّ خَفّفت بنوده الشركات الكبرى قبل تَمريره. الكونغرس عَقد جلسات، وانتهت بصورٍ تَذكاريّة مع سام ألتمان. هذا ما يُقلق المعارض الغربيّ صادقاً.
خامساً: لكنّ التاريخ يَقول…
اليأس المطلق خَطأٌ تاريخيٌّ يُكلّفنا غالياً.
شركة East India البريطانيّة حَكمت شبه القارّة الهنديّة بميزانيّةٍ أضخم من ميزانيّة بريطانيا، وبجيشٍ من 260,000 جنديّ — ضِعفَي الجيش البريطانيّ النظاميّ. تَحلّلت. صناعة التبغ الأمريكيّة أَنفقت عقوداً ومليارات لإثبات أنّ السجائر آمنة، وكانت تَبدو في الستينيّات أنّها فوق القانون. اليوم، شركات التبغ تَدفع تعويضاتٍ بالمليارات، وتُجبر على وَضع صور الأورام السرطانيّة على عبواتها. حتى Microsoft — قبل أن تَستوعب الذكاء الاصطناعي — كانت في 2001 على بُعد توقيعٍ من التفكيك بأمرٍ قضائيّ.
السيطرة المُطلقة وَهْم. الشركات تَبدو حصينةً حتى لحظةٍ معيّنة، ثمّ تَنكشف هَشاشتها فجأة. ثلاث قوى قادرةٌ على كَبحها مجتمعةً:
القانون حين يَستيقظ. قانون GDPR الأوروبيّ أَجبر شركاتٍ كانت تَستهتر ببيانات مستخدميها على إنفاق مليارات لإعادة هندسة منتجاتها. الذكاء الاصطناعي قابلٌ لذلك.
الاقتصاد حين يَنكشف. الشركات تَخسر مليارات سنويّاً. OpenAI خَسرت خمسة مليارات في 2024 وحدها. حين تَنفجر الفقاعة، وهي ستَنفجر بشهادة ألتمان نفسه، سيَتغيّر ميزان القوى.
الضمير حين يَتجمّع. ملايين المهنيّين حول العالم — أطبّاء، محامون، معلّمون، صحفيّون — يَطرحون اليوم الأسئلة الصحيحة. الاتّحاد الأوروبيّ كَتب قانونه بضغطٍ من باحثين أكاديميّين. منظّمة الصحّة العالميّة أَصدرت إرشاداتٍ. النقابات الطبيّة بَدأت تَتحرّك.
سادساً: ما العمل؟
المعركة ليست في إقناع سامِ ألتمان أن يَتّقي اللّه. تلك معركةٌ خاسرة. المعركة في بناء بدائلَ ومنظومةٍ موازية. هذا ما فعله المسلمون في القرن العاشر حين وَجَدوا أنفسهم متأخّرين عن اليونانيّين والفُرس والهنود علميّاً: لم يَنتظروا إذناً من أحد. تَرجموا، وأَضافوا، وأَنشؤوا بيت الحكمة. خَرج منه الخوارزميّ وابن سينا وابن الهيثم.
الجواب على هَيمنة المنظومة ليس البكاء عليها، بل بناء منظومةٍ بديلة لها قِيمها الخاصّة.
التطبيق العمليّ يَتطلّب ثلاثة أَبعادٍ معاً:
التقوى الشخصيّة — أن يَكون كلّ مهنيٍّ مُدركاً لما يَستخدم، يَختار بحدودٍ تَخدم لا تَضرّ. أن يَقرأ سياسات الخصوصيّة، يَسأل عن مكان تخزين البيانات، يَطلب اتّفاقيّات معالجةٍ صريحة، خاصّةً مع البيانات الطبيّة والشخصيّة الحسّاسة.
الرقابة الجَمعيّة — مهنيّة عبر هيئاتٍ علميّة، تشريعيّة عبر قوانين، وأخلاقيّة عبر إجماعٍ مجتمعيّ. النقابات الطبيّة العربيّة لا تَملك حتى الآن إطاراً واضحاً لاستخدام الذكاء الاصطناعي في العيادات. هذه فجوةٌ تَحتاج عَملاً.
المشاركة في التصميم — أن نَكون عَرَباً ومسلمين شركاء في بناء النماذج، لا مُستهلكين مُنبهرين أو متفرّجين قَلقين. حين يَحضر الباحث المسلم والفقيه والمشرّع في طاولة التصميم، تَدخل قِيمه إلى البِنية. حين يَغيب، يَستهلك ما صَنعه غيره بقِيمه.
الأمل ليس انتظار خَلاص. الأمل عَمل. كلّ مهنيٍّ عربيٍّ ومسلم يُتقن أداته، يَطرح أسئلته، يُنبّه أمّته، ويَكتب تجربته — يَحفر ثُلمةً في الجدار الذي بدا حصيناً. ومجموع الثُّلمات، في وقتٍ ما لا نَعلمه، يَجعل الجدار يَسقط.
خاتمة
الذكاء الاصطناعي ليس وحشاً، وليس مُنقذاً. هو أداةٌ أَقوى من غيرها بكثير، وكلّ ما يُمكن أن نَفعله بها — نُحاسَب عليه. الفيلسوف الفرنسيّ بول فيريليو قال جملةً تَستحقّ التأمّل: "حين يُختَرع القطار، يُختَرع معه حادث القطار. حين تُختَرع السفينة، يُختَرع معها الغرق". الذكاء الاصطناعي ليس استثناءً. ميزاته العظيمة ومخاطره العظيمة مولودان توأماً.
المعارضون صادقون: السرقة الفكريّة، استنزاف البيئة، هيمنة سيليكون فالي، خَطر تَركيز السلطة في يد قلّةٍ بلا حسيب. كلّ هذا حقيقيّ.
المؤيِّدون صادقون: نوبل في الكيمياء، علاج السرطان، تعليم طفلٍ فقيرٍ في صنعاء أو القاهرة، أمراضٌ نادرةٌ تُكتَشف. كلّ هذا حقيقيّ.
والحكمة بينهما: لا انبهارٌ ساذجٌ يُسلِّم الأمّةَ لأدواتٍ صَنعها غيرها بقِيمه، ولا رَفضٌ كاملٌ يَترك بلاد المسلمين خلفَ ركب الحضارة قروناً جديدة.
الموقف العاقل: استخدامٌ ذكيٌّ، تحفّظٌ مدروسٌ، وعَمَلٌ على بناء منظومتنا الخاصّة. هذا ما فعله أسلافنا حين كانت بغداد عاصمة العلم. وهذا ما يَفعله العالِم الحكيم اليوم في كلّ تَخصّص: يَستخدم ما يَنفع، يَتأمّل، يَسأل عن الأضرار قبل المنافع، ويَترك خَلفه أَثراً يَهتدي به مَن يَأتي بعده.
#الذكاء_الاصطناعي
#أخلاقيات_التقنية
#سيليكون_فالي
#فقاعة_الذكاء_الاصطناعي
#فلسفة_التكنولوجيا
#الطب_والذكاء_الاصطناعي
#مستقبل_البشرية
المصادر
Wikipedia. "AI Bubble." 2026. https://en.wikipedia.org/wiki/AI_bubble
Bulletin of the Atomic Scientists. "When it all comes crashing down: The aftermath of the AI boom." December 2025. https://thebulletin.org/2025/12/when-it-all-comes-crashing-down-the-aftermath-of-the-ai-boom/
CNBC. "AI is already taking white-collar jobs. Economists warn there's much more in the tank." October 2025. https://www.cnbc.com/2025/10/22/ai-taking-white-collar-jobs-economists-warn-much-more-in-the-tank.html
ScienceDirect. "The carbon and water footprints of data centers and what this could mean for artificial intelligence." December 2025. https://www.sciencedirect.com/science/article/pii/S2666389925002788
Consumer Reports. "AI Data Centers: Big Tech's Impact on Electric Bills, Water, and More." March 2026. https://www.consumerreports.org/data-centers/ai-data-centers-impact-on-electric-bills-water-and-more-a1040338678/
NPR. "Scott Turow, Macmillan, McGraw Hill sue Meta for AI copyright infringement." May 2026. https://www.npr.org/2026/05/05/nx-s1-5812623/scott-turow-meta-lawsuit
Nature. "AI doom warnings are getting louder. Are they realistic?" 2026. https://www.nature.com/articles/d41586-026-01257-6
Wikipedia. "If Anyone Builds It, Everyone Dies." 2025. https://en.wikipedia.org/wiki/If_Anyone_Builds_It,_Everyone_Dies
TIME. "The AI Industry Faces a Bipartisan Grassroots Fight." February 2026. https://time.com/7377579/ai-data-centers-people-movement-cover/
Blood in the Machine. "Why the AI backlash has turned violent." April 2026. https://www.bloodinthemachine.com/p/why-the-ai-backlash-has-turned-violent
DeepMind. "AlphaFold: Five Years of Impact." 2026. https://deepmind.google/blog/alphafold-five-years-of-impact/
Nature. "Chemistry Nobel goes to developers of AlphaFold AI." October 2024. https://www.nature.com/articles/d41586-024-03214-7
AACR. "Experts Forecast Cancer Research and Treatment Advances in 2026." January 2026. https://www.aacr.org/blog/2026/01/08/experts-forecast-cancer-research-and-treatment-advances-in-2026/
Drug Discovery Online. "2025's Top 5 Drug Discovery Highlights." December 2025. https://www.drugdiscoveryonline.com/doc/2025s-top-drug-discovery-highlights-and-how-to-stay-ahead-in-2026-0001
International Center for Law & Economics. "AI, Productivity, and Labor Markets: A Review of the Empirical Evidence." February 2026. https://laweconcenter.org/resources/ai-productivity-and-labor-markets-a-review-of-the-empirical-evidence/
Wikipedia. "Techno-Optimist Manifesto." 2023. https://en.wikipedia.org/wiki/Techno-Optimist_Manifesto
Cairo Review of Global Affairs. "Artificial Intelligence Offers Learning Opportunities in the Global South." June 2025. https://www.thecairoreview.com/essays/artificial-intelligence-offers-learning-opportunities-in-the-global-south/
Black, Edwin. IBM and the Holocaust. Crown Books, 2001.
United States Holocaust Memorial Museum (USHMM). "Documenting the Numbers of Victims of the Holocaust and Nazi Persecution." https://encyclopedia.ushmm.org/content/en/article/documenting-numbers-of-victims-of-the-holocaust-and-nazi-persecution
Statista. "WWII: victims of the Holocaust and Nazi genocide 1933-1945." 2026. https://www.statista.com/statistics/1071011/holocaust-nazi-persecution-victims-wwii/
Wikipedia. "Victims of Nazi Germany." 2026. https://en.wikipedia.org/wiki/Holocaust_victims
مقالٌ متوازنٌ يَستند إلى مصادر منشورة بين 2024 ومايو 2026.
إعداد د. خالد حسن قلم



تعليقات
إرسال تعليق