Discover
النشرة الرقمية
النشرة الرقمية
Author: مونت كارلو الدولية / MCD
Subscribed: 126Played: 1,994Subscribe
Share
© France Médias Monde
Description
"النشرة الرقمية" تنقل يومياً المستجدات وأخبار التكنولوجيا، استخدامات تكنولوجيا المعلومات والمنصات الاجتماعية، الشركات الناشئة وكيفية مواجهة الأخبار المضللة ونصائح في الأمن الرقمي بالإضافة إلى أمور التكنولوجيا الأخرى مع نايلة الصليبي. "النشرة الرقمية" يأتيكم كل يوم عند الساعة الواحدة و23 دقيقة بعد الظهر ويعاد بثها في اليوم التالي عند الساعة الخامسة و39 دقيقة صباحاً بتوقيت باريس.
440 Episodes
Reverse
تتناول نايلة الصليبي في "النشرة الرقمية" أحد أخطر تحديات الأمن السيبراني التي قد تواجه البشرية في العقود المقبلة، ما يسمى بيوم كيو أو Q-Day لعقود طويلة، بني العالم الرقمي على افتراض أساسي: أن بياناتنا آمنة.من معاملاتنا المصرفية ورسائلنا الخاصة، إلى سجلاتنا الطبية وأسرار الدول، كلها محمية بأقفال رقمية شديدة التعقيد، تعتمد على خوارزميات تشفير مثل RSA وECC، وهي خوارزميات يرى الخبراء أن كسرها يحتاج إلى آلاف السنين، حتى باستخدام أقوى الحواسيب العملاقة. لكن هٰذا الافتراض يواجه اليوم تحديا غير مسبوق.تحديا لا يأتي من قراصنة أكثر دهاء، بل من ثورة تكنولوجية جديدة الحوسبة الكمومية أو Quantum Computingالتي معها برز مصطلح يقلق خبراء الأمن السيبراني" Q-Day" أو "يوم كيو"، والذي يصفه البعض بـ"Quantum Apocalypse"، أي "يوم القيامة الكمومية". ماذا يعني مصطلح " Q-Day " أو "يوم كيو" ؟ يشير مصطلح Q day إلى اللحظة التي تصبح فيها أجهزة الكمبيوتر الكمومية قوية بما يكفي لكسر أنظمة التشفير التي يقوم عليها الإنترنت الحديث. فالتقدم في هذا المجال يتسارع بوتيرة كبيرة، والسؤال لم يعد: هل سيحدث ذلك؟ بل أصبح: متى سيحدث؟ رغم أن التقديرات تشير إلى أن" Q-Day" قد لا يحل قبل عشر، أو حتى عشرين عاما، فإن الخطر الحقيقي بدأ فعلا اليوم. فالعديد من الجهات، من أجهزة الاستخبارات إلى مجموعات القرصنة، تعتمد استراتيجية تعرف بـــ" Harvest Now – Decrypt Later"أي: "احصد الآن… وفك التشفير لاحقا". حاليا، تُحصَد كميات هائلة من البيانات المشفرة، ورغم العجز عن فك تشفيرها في الوقت الراهن، فهي تخزن بانتظار اللحظة التي يصبح فيها كسر التشفير ممكنا باستخدام جهاز كمبيوتر كمومي متقدم. ما حجم التهديد الذي يشكله Quantum Apocalypse ؟ في حال انهيار أنظمة التشفير الحالية، قد تتأثر ركائز أساسية من حياتنا الحديثة، من بينها: الأمن القومي، عبر كشف أسرار عسكرية ودبلوماسية حساسة. وتعرض البنية التحتية الحيوية لخطر الاختراق والتلاعب، مثل شبكات الكهرباء والمياه والملاحة الجوية. القطاع الصحي، حيث قد تستغل السجلات الطبية والأجهزة المتصلة في الابتزاز أو التخريب. الهوية الرقمية، قد تفقد التواقيع الرقمية وشهادات الأمان مصداقيتها، ما يضرب التجارة الإلكترونية والنظام القانوني في العالم. أما العملات الرقمية المشفرة، فتعد الهدف الأوضح. فالبيتكوين وغيره من العملات يعتمد على خوارزمية -ECDSA- Elliptic Curve Digital Signature Algorithm ، وهي من بين الخوارزميات الأكثر عرضة للكسر باستخدام خوارزمية شور الكمومية. فمع توفر كمبيوتر كمومي قوي، يمكن نظريا استنتاج المفتاح الخاص لأي محفظة رقمية انطلاقا من مفتاحها العام، ما يعني السيطرة الكاملة على الأموال المخزنة فيها. وتزداد الخطورة في محافظ البيتكوين القديمة جدا، حيث كانت المفاتيح العامة مكشوفة بشكل دائم على شبكة البلوكشين. كيف يمكن للمستخدم العادي أن يحمي نفسه؟ بالنسبة للمستخدم العادي، فإن مواجهة Q-Day لا تكون عبر الأجهزة، بل عبر البرمجيات. فشركات التكنولوجيا الكبرى، مثل آبل وغوغل ومايكروسوفت، بدأت فعلا العمل على دمج خوارزميات التشفير ما بعد الكم Post-Quantum Cryptography - PQCفي أنظمتها المقبلة. أما الإجراء الأهم للمستخدم اليوم، فهو: تحديث الأجهزة والبرامج بانتظام. وذلك حتى قبل وصول Q day، يمكن تقليل المخاطر عبر خطوات عملية، من بينها: استخدام تطبيقات مراسلة تعتمد بروتوكولات تشفير متقدمة، مثل "سيغنال" و" iMessage". تشفير الملفات الحساسة محليا قبل رفعها إلى التخزين السحابي،والاعتماد على تشفير متماثل قوي مثل AES-256، تخزين البيانات شديدة الحساسية بشكل غير متصل بالإنترنت. Q-Day ليس مجرد فرضية تقنية، بل أحد أخطر تحديات الأمن السيبراني التي قد تواجه البشرية في العقود المقبلة. بدأت دول كبرى فعلا، سباق الانتقال إلى التشفير ما بعد الكم، Post-Quantum Cryptography عبر اختبار وتعيين معايير خوارزميات جديدة قادرة على الصمود أمام الحواسيب الكمومية. نحن اليوم في سباق صامت بين كسر الشيفرة وحمايتها والعالم الرقمي يقف على أعتاب تحول تاريخي. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تقترح نايلة الصليبي في "النشرة الرقمية" بعضا من توقعات خبراء التكنولوجيا لأبرز ما يمكن أن نتوقعه من تطورات تقنية و رقمية عام 2026. 2026… عام التحولات الحاسمة: الذكاء الاصطناعي الموسوعي يلوح في الأفق وأزمات العتاد تتفاقم مع انقضاء عام 2025، الذي حمل في طياته تحولات تقنية عميقة، يدخل العالم عام 2026 وسط توقعات تشير إلى أنه لن يكون مجرد امتداد لما سبقه، بل نقطة تحول كبيرة في عالم التكنولوجيا، حيث تتسارع وتيرة التطورات في مجال الذكاء الاصطناعي، وتلوح في الأفق أزمات تصنيعية عالمية قد تؤثر على السوق التقنية بأكملها. الذكاء الاصطناعي: الكلمة الطاغية على المشهد التقني يختصر مصطلح "الذكاء الاصطناعي" المشهد التكنولوجي للعام الجديد، فهو حاضر في كل مكان ولا حدود لانتشاره. ويرى تيم باجارين، رئيس مجموعة المحللين في شركة Creative Strategies، أن الذكاء الاصطناعي سيواصل تغلغله في كل جانب من جوانب حياتنا، مؤكداً أنه لن تكون هناك فقاعة تنفجر، بل ستظهر نماذج أكثر تطوراً وكفاءة، مع استراتيجيات ربحية جديدة من خلال الإعلانات المدمجة في نتائج الأوامر النصية. الطريق نحو الذكاء الاصطناعي العام: حلم بعيد المنال؟ من المتوقع أن تطلق شركة OpenAI نموذج GPT-6 بقفزة هائلة في القدرات الحسابية والاستنتاجية. لكن السؤال الذي يطرح نفسه: هل سيكون هذا النموذج خطوة حقيقية نحو تحقيق الذكاء الاصطناعي العام، أي ذلك النوع من الذكاء الذي يفكر ويتصرف بشكل يحاكي البشر؟ رغم تصريح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في عام 2025 بأن الطريق إلى الذكاء الاصطناعي العام قد تم حله، إلا أنه تراجع لاحقاً عن هذا الإعلان، معتبراً أن المصطلح نفسه قد فقد معناه الواضح، تماماً كما هو الحال مع مفاهيم الوعي أو الروح البشرية يعتقد باجارين أننا لن نشهد ذكاءً اصطناعياً عاماً حقيقياً قبل عام 2028 على أقرب تقدير، مشيراً إلى أن الأنظمة الحالية لم تحقق بعد ما يسمى "الذكاء الاصطناعي العام الموسوعي"-Polymathic AGI. وهو نظام قادر على الفهم العميق والمتكامل لمجالات متعددة كالفن والعلوم والهندسة والفلسفة، وربطها لإنتاج رؤى جديدة ومبتكرة. معركة العمالقة: OpenAI ضد Google قد يشهد عام 2026 تحول المنافسة في مجال الذكاء الاصطناعي إلى معركة مباشرة بين عملاقين: OpenAI وGoogle. ستركز شركة غوغل على دمج نموذج جيميني في جميع خدماتها، حيث سيختفي الخط الفاصل بين نتائج البحث التقليدية وملخصات الذكاء الاصطناعي. في المقابل، سيساعد نمو ChatGPT كمحرك بحث مفضل شركة OpenAI على أن تصبح نداً حقيقياً لغوغل. وقد تؤدي هيمنة هذين العملاقين إلى خروج لاعبين آخرين من السوق أو استحواذ المنافسين عليهم. أزمة العتاد: نقص الذاكرة العشوائية وهيمنة Nvidia بعيداً عن البرمجيات، يواجه قطاع العتاد أزمة متفاقمة. إذ يُنتظر أن تتفاقم أزمة الذاكرة العشوائية (RAM) التي بدأت في 2025، مع انخفاض غير مسبوق في الإمدادات وارتفاع حاد في الأسعار. وستكون الشركات التي خزنت الذاكرة مبكراً هي الرابح الأكبر، بينما يدفع المستهلكون الثمن عبر ارتفاع أسعار بطاقات الرسوميات وصعوبة ترقية أجهزتهم. في هذا السياق، تواصل شركة Nvidia تعزيز موقعها القيادي في سوق شرائح الذكاء الاصطناعي، دون مؤشرات واضحة على اهتمامها بتوسيع منتجاتها الاستهلاكية خارج سلسلة RTX الحالية، هذا يعني أن اللاعبين المخضرمين و محبي الألعاب الإلكترونية سيعانون من عدم تطوير هذه العتاد. ثورة معالجات ARM وأجهزة Qualcomm شكلت معالجات ARM ثورة في حوسبة الأجهزة المكتبية، حيث قدمت بديلاً أكثر كفاءة من معالجات إنتل المستهلكة للطاقة. ورغم أن حصة Qualcomm في أجهزة ويندوز كانت أقل من 1% في عام 2024، إلا أن التوقعات تشير إلى إمكانية نموها بشكل ملحوظ في عام 2026، رغم استمرار هيمنة إنتل وAMD على السوق. آبل وتوقعات الأجهزة الجديدة قد يشهد عام 2026 منتجات جديدة من شركة آبل من بينها إعادة تموضع نظارة Vision Pro لقطاع الأعمال، تمهيداً لإطلاق نظارات iGlasses .كما من المتوقع أن تقدم آبل أخيراً نسختها من الهاتف القابل للطي -iPhone Fold-، لتنضم إلى المنافسة في هذا السوق المتنامي. على صعيد الذكاء الاصطناعي، تشير الشائعات إلى أن آبل في مناقشات مع غوغل لدمج Gemini في Siri، وهو ما سيمكن الشركة من تقديم المساعد الصوتي الذكي الذي وعدت به منذ عامين. الروبوتات: بداية صعبة منتظرة ستتسارع الجهود عام 2026 لإدخال الروبوتات الشبيهة بالبشر إلى الأسواق، لكن التوقعات تشير إلى بداية صعبة، حيث سيصاب المستخدمون الأوائل بالإحباط من قدرات هذه الروبوتات البطيئة. الحقيقة أننا ما زلنا بعيدين بسنوات عن روبوتات جاهزة تماماً للاستخدام المنزلي. توقعات إضافية لعام 2026 كما تشير التوقعات إلى تحولات ثقافية واجتماعية، أبرزها ابتعاد أجيال الشباب جيل Z وجيل Alpha عن المنصات الاجتماعية التقليدية لصالح العلاقات المباشرة بدون هواتف، وظهور ممثلين مولّدين بالذكاء الاصطناعي في الإعلانات والأفلام، إلى جانب بروز جهاز ذكاء اصطناعي جديد من سام ألتمان وجوني آيف قد يثير ضجة إعلامية تفوق نجاحه التجاري. هذا وستزداد الهجمات السيبرانية المدعومة بالذكاء الاصطناعي، مما قد يؤدي إلى انقطاعات كبيرة في الخدمات السحابية والمنصات الرقمية. أخيرا يبدو أن عام 2026 هو عام مثقل بالتناقضات: حيث سيستمر الذكاء الاصطناعي في تشكيل مستقبلنا الرقمي، في ظل ابتكار متسارع، يقابله نقص في الموارد، ومنافسة شرسة بين العمالقة التقنيين. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تقترح نايلة الصليبي في "النشرة الرقمية" حصاد عام 2025 لأبرز التقنيات التي دمغت عام 2025 التي سيكون لها دورا حساما في العقد المقبل. الذكاء الاصطناعي: من أداة مساعدة إلى طبقة أساسية في المنتجات الرقمية شهد عام 2025 نضج وتطور تقنيات عديدة ستغير حياة البشري المستهلك المتصل، أخترت أن أضيئ على بعض من هذه التقنيات التي سيكون لها دورا حساما في العقد المقبل. فيمكن وصف هذا العام بأنه مرحلة انتقال حاسمة، ترسّخت فيه التقنيات الأساسية، وعلى رأسها الذكاء الاصطناعي، فتحول الذكاء الاصطناعي في عام 2025 من أداة مساعدة إلى طبقة أساسية -Core Layer- متكاملة في صميم المنتجات الرقمية. حيث أصبح المعيار السائد هو النماذج Multimodal التي تعالج النصوص والصور والصوت والفيديو بشكل آني. هذا أدى إلى ظهور واجهات مستخدم "طبيعية" حيث يتم التفاعل مع الأجهزة عبر التحدث أو الإشارة أو الرؤية، مما سرّع عمليات التصميم والبرمجة بشكل غير مسبوق. كما شهد عام 2025 بروز الوكلاء الأذكياء AI Agents كنقلة نوعية في الأتمتة، إذ لم تعد الأنظمة تكتفي بتنفيذ الأوامر، بل أصبحت قادرة على التخطيط والتنفيذ وتصحيح المسار ذاتياً دون تدخل بشري مستمر وقد بدأ الوكلاء في تولي مهام معقدة ومتسلسلة في مجالات مثل تكنولوجيا المعلومات، والمالية، والتسويق، ما أتاح مستوى جديداً من التفويض التشغيلي. والاتمتة. كما اشتدت حدة التنافس بين الولايات المتحدة والصين فبرز مطلع عام 2025 نموذج DeepSeek كمنافس قوي زعزع الأسواق حينها، محتلاً أيضا المرتبة الأولى في التنزيلات في متاجر التطبيقات وهو يستخدم 2000 شريحة فقط مقارنة بـ 16000 شريحة لمنافسيه الأمريكيين، مما يثبت إمكانية تحقيق كفاءة استثنائية بموارد أقل. كما دخل عام 2025 "قانون الذكاء الاصطناعي الأوروبي" (EU AI Act) حيز التنفيذ الفعلي، مما أجبر الشركات على الشفافية بشأن بيانات التدريب ووضع علامات مائية Watermarking على المحتوى المُنتج اصطناعياً للحد من التضليل. يان لوكون ونقطة التحول الفكرية: ما بعد نماذج اللغة الكبيرة أما الحدث الأبرز نهاية عام 2025 هو ترك يان لوكون شركة ميتا، وهو أحد عرابي الذكاء الاصطناعي و أحد اباء تعلم الآلة الذي أسس مختبر ميتا للذكاء الاصطناعي و الذي يعتبر أن نماذج اللغة الكبيرة محدودة ولن تقود إلى ذكاء حاسوبي حقيقي ، ليطلق شركة ناشئة للذكاء الاصطناعي في باريس كمختبر لتطوير ذكاء اصطناعيا يُعرف بـ"نماذج العالم"، التي تتعلم من البيانات البصرية كمشاهدة الفيديو، بدلا من توقع الكلمة التالية كما تفعل النماذج اللغوية الكبيرة الحالية و هدف هذه الشركة الناشئة حسب لوكون هو إحداث الثورة الكبرى المقبلة في الذكاء الاصطناعي: أنظمة تفهم العالم المادي، تمتلك ذاكرة مستمرة، تستطيع الاستدلال، وتخطط لسلاسل من الأفعال المعقدة". السباق نحو "التفوق الكمومي": غوغل تحطم الأرقام وIBM ترسم خارطة الطريق والحضور الفرنسي في سباق الكم العالمي من التقنيات الأخرى التي دمغت عام 2025 الحوسبة الكمومية، رغم أن الحوسبة الكمومية لم تصل بعد إلى مرحلة الاستخدام التجاري الواسع، غير إنها كانت إلى جانب الذكاء الاصطناعي من أبرز التقنيات التي جذبت استثمارات ضخمة من قبل شركات التكنولوجيا العملاقة والحكومات. وتنافست فيها الشركات من أمازون إلى مايكروسوفت وصولا لشركة غوغل في تطوير الشرائح الكمومية. فتميزت غوغل برقاقة Willow الكمومية التي حققت أول تفوق كمي قابل للتحقق، بتشغيل خوارزمية "Quantum Echoes" و هي تقنية جديدة من غوغل تسمح بالتحقق من دقة النتائج الكمومية، واستطاعت هذه الرقاقة Willowإجراء محاكاة فيزيائية معقدة في ساعتين فقط، وهي مهمة كانت ستستغرق من أقوى سوبر كمبيوتر تقليدي في العالم (Frontier) حوالي 302 سنة. كما أعلنت شركة IBM عن تخطيطها لإطلاق عام 2029 جهاز Starling وهو كمبيوتر كمومي واسع النطاق ومتسامح مع الأخطاء large-scale, fault-tolerant quantum computer قادر على تشغيل دوائر كمومية تتألف من 100 مليون بوابة كمومية على 200 كيوبت منطقية Logical Qbits . كما تميزت الشركات الفرنسية في دقة الكيوبت كشركة Alice&Bob التي تفوقت على Google وIBM. كما دشنت شركة Pasqal الفرنسية مصنعًا بمساحة في 4600 متر مربع في شيربروك بكيبيك لتصنيع الكمبيوتر الكمومي ذات الذرات المتعادلة.neutral atoms كما أنه مع تقدم الحوسبة الكمومية، فقد بدأت المؤسسات والحكومات في إدراجها ضمن استراتيجيات الأمن السيبراني خاصة في مجال التشفير ما بعد الكم -Post-Quantum Cryptography- الذي بدأ في الانتشار لحماية البيانات الحساسة من الكمبيوتر الكمومي المستقبلي. من البحث إلى الإجابة الذكية تحول الويب من "تحسين محركات البحث" (SEO) إلى "تحسين محركات الإجابة" (AEO) أما من ناحية الويب في عام 2025 لم يعد الويب مجرد فضاء للبحث عن المعلومات، بل أصبح بيئة تفاعلية ذكية مدعومة بالذكاء الاصطناعي. فقد تطورت محركات البحث لتقديم إجابات سياقية ديناميكية، وتخصيص فوري للمحتوى، ما أعاد النظر في نموذج تحسين محركات البحث التقليدي، (SEO) Search Engine Optimization ، لصالح "تحسين محركات الإجابة" (AEO). Answer Engine Optimization أي فتح المجال أمام مفهوم جديد يركّز على تحسين الإجابة بدلاً من الكلمات المفتاحية. وأيضا بعيداً عن مضاربات العملات الرقمية، ركز ويب الجيل الثالث Web3 في 2025 على "الهوية السيادية" -Self-Sovereign Identity-، حيث أصبح بإمكان المستخدمين التحكم في بياناتهم الشخصية عبر سلاسل الكتل (Blockchain) للتنقل بين المنصات دون الحاجة لشركات وسيطة. كما تراجع ضجيج المضاربة في الرموز غير القابلة للاستبدال (NFT) non-fungible token. بما أننا نتحدث عن الهوية الرقمية شهد عام 2025 نشرًا متزايدًا للمصادقة بدون كلمات مرور passkeys كبديل نهائي لكلمات المرور التقليدية. Edge Computing الحوسبة الطرفية : معالجة البيانات حيث تُنتج مع انتشار تطبيقات إنترنت الأشياء، واستخدام المركبات الذاتية القيادة، والتطبيقات المتصلة المختلفة، بات من الضروري معالجة الكم الهائل من بيانات المستخدمين ما عزز في عام 2025 دور الحوسبة الطرفية. Edge Computing هي تقنية تهدف إلى معالجة البيانات بالقرب من مصدرها (مثل الكاميرات، الحساسات، أو الهواتف) بدلاً من إرسالها لمسافات طويلة إلى خوادم بعيدة في السحابة. عام 2025 كان المختبر الذي صُهرت فيه تقنيات العقد المقبل، مرسخاً القواعد الجديدة لمنظومة الحياة الرقمية والابتكار التكنولوجي. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تقترح نايلة الصليبي في "النشرة الرقمية" مجموعة من التطبيقات والأدوات للتحرر من قبضة غوغل و لتصبحوا سادة بياناتكم. قد تكون بيئة "غوغل" (Google Ecosystem)، من هواتفنا وبريدنا الإلكتروني إلى تخزين بياناتنا في السحاب، هي الأكثر راحة وسهولة، لكن هذه الراحة تأتي بثمن باهظ على حساب خصوصيتنا وبياناتنا. فكيف يمكن الخروج من هذه المنظومة والاعتماد على بدائل مفتوحة المصدر تحترم خصوصية المستخدم. في البداية يجب تحديد أنواع الأجهزة التي نرغب بإخراجها من بيئة "غوغل"، الكمبيوتر المكتبي أو المحمول سواء كان يعمل بـنظام التشغيل "ويندوزط أو غيره من الأنظمة أو الهاتف الذكي الذي يعمل بنظام "أندرويد" وأي أجهزة أخرى . وعلينا السؤال هل نحتاج نظاماً للعمل المكتبي، لتحرير الفيديوهات، الألعاب، أم مجرد استخدامات يومية بسيطة؟ تحديد هذه الأمور سيجعل اختيار البدائل التقنية لاحقاً أكثر دقة وملاءمة لاحتياجاتنا. بالنسبة لأجهزة الكمبيوتر يمكن الانتقال إلى نظام GNU/Linux إذا كنتم من المبتدئين في عالم "لينكس"، يمكن البدء بتوزيعات مثل أوبونتو (Ubuntu) أو "لينكس مينتط (Linux Mint). كذلك يتوفر أيضا نظام التشغيل "AnduinOS "،وهو توزيعة من "لينكس" مبني على "أوبونتو". صمم خصيصاً لتسهيل الانتقال من نظام التشغيل "ويندوز" إلى نظام التشغيل "لينُكس". تتميز هذه التوزيعات بواجهات مألوفة وسهولة في الاستخدام، خصوصاً لمن اعتادوا على نظام "ويندوز". قبل البدء في عملية استبدال نظام التشغيل أول خطوة هي النسخ الاحتياطي Back-upلحفظ جميع الملفات الضرورية على قرص حفظ خارجي يمكن أيضا تجربة النظام البديل عن طريق إنشاء مفتاح Bootable USB لتجربة نظام لينكس الجديد مباشرة على الكمبيوتر دون تثبيته. مما يضمن كشف توافق الأجهزة قبل الانتقال النهائي. لنظام جديد. بدائل نظام التشغيل أندرويد للهواتف الذكية للتخلص من هيمنة غوغل على الهاتف الذكي يتطلب تثبيت ما يُعرف بـ نظام تشغيل بديل (Custom ROM)، خالٍ من خدمات "غوغلط الأساسية (GApps). يمكن استبدال نظام التشغيل "أندرويد" بأنظمة مثل GrapheneOS المخصص لهواتف"بيكسلط أو CalyxOS. أيضا يمكن استبدال "نظام أندرويدط بأنظمة: LineageOSهو نظام مفتوح المصدر واسع الانتشار ويدعم مجموعة كبيرة من الهواتف، ويمكن تثبيته بدون أي من خدمات غوغل. نظام ProtonAOSP هو نسخة معدلة بسيطة من نظام التشغيل أندرويد، تركز على واجهة المستخدم/تجربة المستخدم والأداء، مع لمسة من الخصوصية. تقترحه شركة Proton السويسرية. تثبيت هذه الأنظمة يتطلب خبرة تقنية متوسطة، ويجب التأكد من التوافق التام مع طراز الهاتف قبل أي محاولة لاستبدال نظام التشغيل. بدائل الخدمات السحابية لغوغل استبدال خدمات غوغل الرئيسية تعتبر الخطوة حاسمة لاستعادة السيطرة على بياناتكم. تشمل هذه البيانات: خدمة البريد الإلكتروني، تخزين الصور والفيديوهات وتخزين الملفات، وخدمة التقويم calendar ، وجهات الاتصال... أقترح خدمات بديلة لجيميل تركز على التشفير من طرف إلى طرف كبرنامج: Proton Mail : تقترحه شركة Proton السويسرية و هي خدمة مشفرة بالكامل، وتتبع الشركة قوانين خصوصية صارمة. Tuta: خدمة مشفرة بالكامل . وهي كبروتون ميل تقترح خدمة مجانية وخدمة مدفوعة وتقترحان كل خدمات جيميل وأيضا خدمة التخزين السحابي بدل Google Drive كما أنه غالبا ما ينصح بالاستضافة الذاتية (Self-Hosting)، أي أن يصبح المستخدم المضيف لبياناته عبر تثبيت تطبيق Nextcloud. على خادم خاص ينشئ سحابة خاصة بالمستخدم بالكامل، شاملة التخزين، التقويم، جهات الاتصال، وحتى الأدوات المكتبية. يتطلب تحضير اعدادات تطبيق Nextcloud خبرة معلوماتية متقدمة والصبر الطويل وبعض الوقت. وتصبحون أسياد بياناتكم. ولمن يرغبون فقط باستضافة الصور، أقترح تطبيق Photoprism الذي يستخدم الذكاء الاصطناعي لتصنيفها. ولا يرسل البيانات لأي طرف ثالث. لتقليل المخاطر يمكن البدء بتدبيل خدمات غوغل في تحوّيل كمبيوتر ثانوي أو قديم إلى نظام لينكس بسيط مثل Linux Mint . استبدال خدمات البريد الإلكتروني أولاً Proton Mail، ثم إنشاء السحابة الخاصة في المنزل باستخدام Nextcloud. آخر خطوة فهي أم استبدال نظام الهاتف الذكي عن طريق تجربة نظام بديل على هاتف قديم قبل تطبيقه على الجهاز الأساسي. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تستضيف نايلة الصليبي في "النشرة الرقمية" المهندسة هناء الرملي، الكاتبة والخبيرة الاستشارية في الإنترنت الآمن وجرائم الإنترنت الخاصة بالأسرة والطفل، لتشرح ضرورة الحفاظ على استخدام اللغة العربية الفصحى لمحتوى الإنترنت، إن في المواقع أو المدونات وأيضا على المنصات الاجتماعية. تحت عنوان :"آفاق مبتكرة للغة العربية: سياسات وممارسات ترسم مستقبلاً لغوياً أكثر شمولاً"، تحتفل اليونسكو عام 2025 باليوم العالمي للغة العربية في 18 من ديسمبر، حيث تسلط هذه الاحتفالية الضوء على دور التعليم والإعلام والتقنيات والسياسات العامة في استخدام اللغة العربية بأنماط أكثر يسراً وفعالية ومراعاة للجوانب الاجتماعية. في عالم يشهد تحولاً رقمياً متسارعاً، أين هي اليوم اللغة العربية على شبكة الإنترنت؟ يشير مقال عن محتوى اللغات على الإنترنت في موقع ويكيبيديا، إلى أن زيادة انتشار الإنترنت في المنطقة العربية والانتشار الواسع للهواتف الذكية والمنصات الاجتماعية أدى إلى زيادة كبيرة في التفاعل والمحتوى المُنشأ باللغة العربية. وإلى نمو تواجد اللغة العربية على شبكة الإنترنت. حيث باتت اللغة العربية تحتل المرتبة الرابعة عالمياً من حيث عدد مستخدمي الإنترنت الناطقين بها بعد الإنجليزية والصينية والإسبانية، وعلى الرغم من ارتفاع عدد المستخدمين، لا يزال المحتوى العربي الرقمي يواجه تحدياً مقارنة باللغات الأخرى. فحسب الدكتور عبد الله بن يحيى الفيفي، رئيس قطاع الحوسبة اللغوية في مجمع الملك سلمان العالمي للغة العربية خلال أعمال "قمّة المعرفة" التي انعقدت في نوفمبر 2025 في دبي، "أن نسبة المحتوى العربي لا تتجاوز 3% من إجمالي المحتوى على الإنترنت." ومن أبرز التحديات التي تواجه اللغة العربية على الإنترنت هو تأخر تطوير دعم الذكاء الاصطناعي والأدوات التكنولوجية للغة العربية مقارنة باللغات الكبرى الأخرى. وأيضا وجود التنوع اللغوي الكبير بين اللهجات، بالإضافة إلى استخدام "العربيزي" أي كتابة العربية بحروف لاتينية. ما يعني أنه من الضروري الحفاظ على استخدام اللغة العربية الفصحى لمحتوى الإنترنت إن في المواقع أو المدونات وأيضا على المنصات الاجتماعية. عن أهمية الكتابة باللغة الفصحى على المنصات الاجتماعية، تستضيف نايلة الصليبي في "النشرة الرقمية" ،المهندسة هناء الرملي، الكاتبة والخبيرة الاستشارية في الإنترنت الآمن وجرائم الإنترنت الخاصة بالأسرة والطفل. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تنقل نايلة الصليبي في "النشرة الرقمية" تحذيرات جيفري هينتون أحد "عرابي الذكاء الاصطناعي" من عدة سيناريوهات قد تؤدي إلى انهيار المجتمع أو حتى انقراض البشرية. و ذلك خلال حوار عام مع السيناتور بيرني ساندرز في جامعة جورج تاون . خلال حوارعام مع السيناتور بيرني ساندرز في جامعة جورج تاون ،حذر جيفري هينتون من عدة سيناريوهات قد تؤدي إلى انهيار المجتمع أو حتى انقراض البشرية. كان جيفري هينتون رائداً في تقنيات التعلم العميق التي تشكّل أساس نماذج الذكاء الاصطناعي التوليدية التي تُغذي اليوم طفرة الذكاء الاصطناعي الحالية. وقد نال جائزة تورينج عام 2018 بفضل عمله في مجال الشبكات العصبية، إلى جانب الباحث يوشوا بينجيو من جامعة مونتريال، وكبير علماء الذكاء الاصطناعي السابق في "ميتا" يان لوكون . ويُعتبر هؤلاء الثلاثة "عرّابو" الذكاء الاصطناعي. وقد تحدّث العلماء الثلاثة بصراحة عن مخاطر تقنية الذكاء الاصطناعي، بدرجات متفاوتة. لكن جيفري هينتون كان أول من لفت الأنظار عندما صرّح بأنه نادم على عمل حياته بعد استقالته من منصبه في "غوغل" عام 2023. البطالة والروبوتات القاتلة نقل موقع "بيزنس إنسايدر" عن جيفري هينتون قوله: "لن يجد من يفقدون وظائفهم وظائف أخرى. في حال أصبح الذكاء الاصطناعي بذكاء البشر - أو أكثر ذكاءً - فبإمكانه القيام بأي وظيفة قد يقومون بها". إذ يخشى جيفري هينتون من كون الانتشار السريع للذكاء الاصطناعي سيكون مختلفاً تماماً عن الثورات التكنولوجية السابقة التي خلقت فئات وظيفية جديدة. قال جيفري هينتون في نقاشه مع السيناتور بيرني ساندرز، إن أصحاب المليارات الذين يستثمرون دون حساب في تقنيات الذكاء الاصطناعي، مثل إيلون ماسك، ومارك زوكربيرغ ،لاري إليسون وسام التمان، لم يفكروا بعمق في نتائج استبدال العمال بالذكاء الاصطناعي. لم يستوعبوا إذا لم يتقاضَ العمال أجورهم، فلن يكون هناك من يشتري منتجاتهم". ولم يفكروا في الاضطراب الاجتماعي الهائل الذي سنواجهه إذا ارتفعت معدلات البطالة بشكل كبير“. من اللافت أيضا أن جيفري هينتون يدّعي أن أحدث نماذج الذكاء الاصطناعي التوليدي، مثل نموذج GPT-5 من "OpenAI"، "تعرف آلاف المرات أكثر مما يعرفه البشري بالفعل". غير أن العديد من الخبراء يختلفون حول ما إذا كان هذا يعني أن الذكاء الاصطناعي "يعرف" بالفعل ما يتحدث عنه ففي حين تُدرّب نماذج اللغات الكبيرة الرائدة على مجموعة بيانات تتجاوز بكثير ما يمكن للإنسان تعلمه، نرى أنه، غالباً ما فشلت جهود عديدة لاستبدال العمال بنماذج شبه مستقلة كــ "عملاء الذكاء الاصطناعي"، على سبيل المثال في عمليات دعم العملاء، حين توقع الكثيرون أنها من المهن الأكثر عرضة للزوال. هذا يعني أنه، ليس من المؤكد تماماً أن هذه التقنية ستحل محل الوظائف منخفضة الأجر بسهولة. كما يخشى جيفري هينتون من نشر روبوتات الذكاء الاصطناعي للقتال، ففي حال غياب خطر إثارة ردود فعل محلية عنيفة بسبب تعرض الجنود للموت فإن القوى الكبرى سوف تُشجع على شن حروب لا نهاية لها باستخدام آلات يمكن التضحية بها . ما سيزيل أحد العوائق الرئيسية أمام قيام الدول القوية الغنية بغزو دول صغيرة مثل غَرْنَادَة"، وهي أصغر دولة في جزر الهند الغربية في البحر الكاريبي في الطرف الجنوبي من سلسلة جزر غرنادين. «. Grenadines المعلومات المضللة و انهيار المجتمع البشري أعرب جيفري هينتون عن قلقه العميق من قدرة أدوات الذكاء الاصطناعي التوليدي على إغراق الإنترنت بالصور المزيفة، ومقاطع الفيديو المفبركة، والنصوص المضللة. وحذر من أن هذا الطوفان من المعلومات المضللة Misinformation سيؤدي إلى مرحلة "لا يعود فيها الناس قادرين على معرفة ما هو حقيقي وما هو مزيف"، مما يهدد أسس المجتمع الديمقراطي والنسيج الاجتماعي. كما أشار جيفري هينتون إلى أننا قد نكون أقرب مما نتصور لظهور أنظمة ذكاء اصطناعي تفوق الذكاء البشري. Artificial general intelligenceأو الذكاء العام الاصطناعي العام وقال إن هذه الأنظمة قد تطور أهدافاً خاصة بها لا تتماشى مع مصالح البشرية، وقد تتعلم أساليب التلاعب بالبشر للوصول إلى أهدافها، مما يشكل خطراً وجودياً (Existential Threat) على الإنسانية. وأيضا حذر جيفري هينتون من أن الذكاء الاصطناعي لن يكتفي بأتمتة "الأعمال الشاقة" drudge work ، بل قد يحل محل وظائف معرفية وإدارية واسعة النطاق مثل المترجمين، والمساعدين القانونيين والمحاسبين وغيرها من الوظائف، وهذا التحول السريع Job Displacement قد يؤدي إلى اضطرابات اجتماعية واقتصادية كبيرة نتيجة البطالة الجماعية. هذا وينبه جيفري هينتون إلى صعوبة منع الجهات الخبيثة Bad Actors سواء كانت أنظمة ديكتاتورية أو منظمات إجرامية من استخدام الذكاء الاصطناعي لأغراض شريرة، مثل تطوير أسلحة ذاتية التشغيل، أو شن حملات تضليل واسعة النطاق لزعزعة استقرار الدول. وأخيرا أبدى جيفري هينتون تخوفه من أن الشركات الكبرى والدول قد دخلت في سباق محموم لتطوير هذه الأنظمة دون وجود ضوابط تنظيمية كافية، ويُطالب جيفري هينتون على غرار زميله جوشوا بنجيو بوضع تنظيمات حكومية عاجلة للحد من سباق تطوير الذكاء الاصطناعي، مؤكدًا أن وتيرة التطور أسرع بكثير مما توقعه أي شخص، وأن "اليد الخفية" للسوق لن تكون كافية لضمان سلامتنا. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تستضيف نايلة الصليبي في "النشرة الرقمية" الدكتور احمد بانافع باحث وأستاذ هندسة و أمن الشبكات في جامعة ولاية سان هوسيه في كاليفورنيا، للتطرق إلى أهمية الاستثمارات الضخمة التي تقوم بها المملكة العربية السعودية في مجال تكنولوجيا الذكاء الاصطناعي، وأهمية الشراكات و مذكرات التفاهمات مع شركات التكنولوجيا الكبرى في الولايات المتحدة لدعم تكنولوجيا الذكاء الاصطناعي في السعودية. تُظهر التحركات الأخيرة للمملكة العربية السُّعُودية، استراتيجية طموحة لوضع نفسها كقوة عالمية ثالثة في مجال الذكاء الاصطناعي، إلى جانب الولايات المتحدة والصين.تنفذ المملكة ما يمكن وصفه بـ "استحواذ سيادي" على كامل سلسلة قيمة الذكاء الاصطناعي Artificial Intelligence Value Chain، بدءًا من البنية التحتية للحوسبة ووحدات معالجة الرسوميات، مرورًا بالبنى السحابية والشبكات، وصولًا إلى تطوير النماذج اللغوية العربية وبناء القدرات الهندسية المحلية. فعن طريق سلسلة من الشراكات الدولية الضخمة، التي تقودها مؤسسات وطنية مثل شركة "هيوماين" -"Humain" المدعومة من صندوق الاستثمارات العامة، تبني المملكة العربية السعودية شبكة سيادية تضمن لها الوصول والتحكم في المكونات الأساسية للذكاء الاصطناعي.وتولي المملكة العربية السعودية اهتماماً استثنائياً للذكاء الاصطناعي كركيزة أساسية في تحقيق رؤية السعودية 2030، بهدف تنويع الاقتصاد وقيادة التحول الرقمي.و تقود هذه الاستراتيجية الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا". وفي هذا الإطار وخلال زيارة ولي العهد السعودي محمد بن سلمان إلى واشنطن، عُقدت شراكات استراتيجية واتفاقات تعاون واستثمار مع شركات عملاقة كـ"إنفيديا"،أدوبي"،أمازون" وأيضا مع xAI . الملفت من ضمن الاتفاقيات، اتفاق تزويد السعودية برقائق أمازون AWS Trainium . وهي خطوة غير مسبوقة في نقل التكنولوجيا الأمريكية خارج الولايات المتحدة. تتابع نايلة الصليبي في "النشرة الرقمية" تسليط الضؤ على نهضة المملكة العربية السعودية في مجال تكنولوجيا الذكاء الاصطناعي و تستضيف الدكتور أحمد بانافع ،باحث وأستاذ هندسة و أمن الشبكات في جامعة ولاية سان هوسيه في كاليفورنيا، للتطرق إلى أهمية هذه الاستثمارات الضخمة و أهمية الشراكات مع شركات التكنولوجيا الكبرى في الولايات المتحدة لدعم تكنولوجيا الذكاء الاصطناعي في السعودية. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تستضيف نايلة الصليبي في "النشرة الرقمية" الدكتور أحمد العم، خبير ومستشار علم البيانات والذكاء الاصطناعي، الذي يتطرق إلى الرؤية الاستراتيجية للمملكة العربية السُّعُودية في تكنولوجيا الذكاء الاصطناعي و الإمكانات التي توفرها السُّعُودية للوصول إلى الريادة التي نشهدها اليوم في تكنولوجيا الذكاء الاصطناعي و إلى بتطوير نماذج لغات كبير ة عربية ودعم اللهجات السُّعُودية المحلية. تُظهر التحركات الأخيرة للمملكة العربية السُّعُودية، استراتيجية طموحة لوضع نفسها كقوة عالمية ثالثة في مجال الذكاء الاصطناعي، إلى جانب الولايات المتحدة والصين. فعن طريق صفقات استثمارية، عقدت مؤخرًا بين شركات التكنولوجيا الكبرى الأمريكية و السُّعُودية، تتجاوز 270 مليار دولار، تنفذ المملكة ما يمكن وصفه بـ "استحواذ سيادي" على كامل سلسلة قيمة الذكاء الاصطناعي Artificial Intelligence Value Chain، بدءًا من البنية التحتية للحوسبة ووحدات معالجة الرسوميات، مرورًا بالبنى السحابية والشبكات، وصولًا إلى تطوير النموذجات اللغوية العربية وبناء القدرات الهندسية المحلية. لتسليط الضوء على دور السُّعُودية و نهضتها في منظور الذكاء الاصطناعي، تستضيف نايلة الصليبي في "النشرة الرقمية" الدكتور أحمد العم، خبير ومستشارعلم البيانات والذكاء الاصطناعي، الذي يتطرق إلى الرؤية الاستراتيجية للمملكة العربية السُّعُودية في تكنولوجيا الذكاء الاصطناعي، وإلى الإمكانات التي توفرها السُّعُودية للوصول إلى الريادة التي نشهدها اليوم في تكنولوجيا الذكاء الاصطناعي، ويتحدث عن تطوير نماذج لغات كبيرة عربية ودعمها الثقافة العربية.كما يتكلم عن الاستراتيجية الطموحة التي ،ربما،ستمكن السُّعُودية من أن تصبح قوة عالمية ثالثة في مجال الذكاء الاصطناعي إلى جانب الولايات المتحدة والصين. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تتطرق نايلة الصليبي في "النشرة الرقمية"،إلى الجدل الذي أثاره إطلاق منصة "إكس" المتعثر والفوضوي لميزة" About this Account التي تتيح للمستخدمين معرفة الدولة أو المنطقة الجغرافية لأي حساب على المنصة، باعتبارها جزءاً من جهود المنصة لمكافحة الحسابات المزيفة والتدخلات السياسية الرقمية. ودفع إلى الشك في منهجية عمل النظام ودقته. شهدت منصة "إكس "(تويتر سابقاً) إطلاقا مرتبكاً ومتعثراً لميزة تحديد الموقع الجغرافي التي تهدف إلى تعزيز الشفافية وكشف الحسابات المضللة عبر إظهار الموقع الجغرافي للحسابات. فقد أعلن نيكيتا بير، مدير المنتجات في "إكس"، يوم السبت 22 نوفمبر عن إطلاق ميزة About this Account "حول هذا الحساب" التي تتيح للمستخدمين معرفة الدولة أو المنطقة الجغرافية لأي حساب على المنصة، باعتبارها جزءاً من جهود المنصة لمكافحة الحسابات المزيفة والتدخلات السياسية الرقمية. وتستمد معلوماتها من عناوين IP التي استخدمت للتسجيل في المنصة ومناطق متاجر التطبيقات. كما أن هذه الميزة تتوسع في تعريف أصحاب الحسابات فتكشف هوية المستخدمين، وتعرض تاريخ إنشاء الحساب، وعدد مرات تغيير الاسم، وطريقة الوصول إلى المنصة، في خطوة شبيهة بآليات الشفافية في "فيسبوك" و"إنستغرام". وبمجرد تفعيل هذه الميزة، بدأت تظهر مشكلات كبيرة في الدقة، ومعلومات خاطئة، ما أثار موجة واسعة من الجدل والتشكيك في مصداقية الأداة. وأدت إلى ارتباك وانتقادات واسعة. تناقضات وأخطاء في تحديد الموقع الجغرافي اكتشف المستخدمون مواقع جغرافية غير منطقية لحسابات مؤثرة، بينها حسابات تابعة لحركة MAGA الأمريكية، تبين أنها تدار من دول مثل نيجيريا وبنغلاديش وأوروبا الشرقية. كما ظهرت تناقضات مشابهة في حسابات مناصرة للديمقراطيين، ما فتح باباً لحرب اتهامات بين الطرفين. ذكرت بالفوضى والتدخلات التي جرت خلال حملة الانتخابات الامريكية عام 2016 ولم تقتصر الأخطاء على الحسابات السياسية، إذ فوجئ مستخدمون بظهور مواقع لا تمت بصلة إليهم، مع وجود تناقضات في حساباتهم الخاصة، مواقعهم كانت وفقًا لمنصة "إكس"، موجودة في أماكن لم يسبق لهم أن زاروها من قبل. فعلى سبيل المثال، ذكرت صحيفة "لوموند" الفرنسية أن منصة إكس حددت مركز حساب الصحيفة على المنصة في الولايات المتحدة، علما أن الصحيفة مؤسسة فرنسية ومقرها في باريس. بالإضافة إلى إدراج الموقع الجغرافي لحساب شبكة Fox News الأمريكية الشهيرة في ألمانيا، ما أثار تساؤلات حول منهجية عمل النظام ودقته. واضطرت منصة "إكس" بعد تكرار الشكاوى من هذه الأخطاء للاعتراف بوجود "بيانات غير صحيحة"، أو عيوب وقال مدير المنتجات في "إكس"نيكيتا بير، إن الخلل يطال خصوصاً الحسابات القديمة. وحسب منصة "إكس" تحديد الموقع يتأثر بعوامل مثل استخدام الشبكات الافتراضية الخاصة VPN، والتنقلات المتكررة، وقِدَمِ الحساب، واعتماد عناوين IP مشتركة. وقد واجهت موجة إضافية من النقد بعد ورود تنبيهات تفيد بأن المعلومات "قد لا تكون دقيقة" في حال الاتصال عبر VPN شبكة افتراضية خاصة. تحديات تقنية وأخلاقية؟ كثير من الخبراء اعتبروا أن هذه الميزة تواجه تحديات تقنية وأخلاقية. قد تكشف عن مواقع حساسة لناشطين وصحفيين، ما يعرّض أمنهم للخطر، كما قد تؤدي إلى تمييز أو استهداف بناءً على الموقع الجغرافي. هل هو أخلاقي الكشف عن موقع المستخدمين دون موافقتهم الصريحة؟ في الوقت نفسه، يرى مؤيدون للميزة أنها قد تساعد في كشف الحسابات الوهمية أو تلك التي تُستخدم للتأثير في النقاشات السياسية وتمرير حملات تضليل منظمة، واستهداف الدول لتقويض نسيجها وللتأثير في الانتخابات أو لإثارة الفوضى والتصدعات. أما في العالم العربي، أثار نشر ميزة تحديد الموقع الجغرافي النقاشات النارية حول الحسابات التي اعتبرت أنها تُدار من الخارج بهدف التأثير في النقاش العام، والبعض يرى بأن الميزة تساعد في كشف الحسابات الوهمية، وإن كانت الدقة غير المضمونة قد تسبب سوء فهم وتفسيرات خاطئة. وقد تسببت في نقاشات حادة على منصة "إكس" وتبادل التهم والتخوين بين المستخدمين. ورغم أن الميزة تُعد خطوة مهمة نحو شفافية أكبر، فإن الإطلاق المتعثر أظهر وجود مشكلات تتعلق بالدقة وحماية الخصوصية، ما يضع منصة إيلون ماسك أمام اختبار حقيقي لاستعادة ثقة المستخدمين. هل تنجح منصة "إكس" (تويتر سابقاً) في إصلاح الخلل وتحويل الميزة إلى أداة فعالة؟ أم أن إيلون ماسك سيتخذ قرار إلغاء الميزة عن المنصة والانتقال إلى أمور أخرى؟ يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تنقل نايلة الصليبي في "النشرة الرقمية" مجموعة أدوات جديدة للبشري المتصل : شركة OpenAIتطلق ميزة المحادثات الجماعية فيChatGPT،وشركة غوغل تكسر الحواجز بين أندرويد وآبل، وتتيح شركة Perplexity برنامج التصفح Comet المدعوم بالذكاء الاصطناعي التوليدي لأنظمة أندرويد. أعلنت شركة "OpenAI" إطلاق ميزة المحادثات الجماعية في نموذج "ChatGPT،" حيث تتيح هذه الميزة إنشاء مساحة محادثة مشتركة يمكن دعوة الأصدقاء والعائلة وزملاء العمل إليها، مع إمكانية انضمام حتى 20 مشاركًا عبر رابط دعوة قابل لإعادة المشاركة. تظهر المحادثات الجماعية في قسم منفصل بالشريط الجانبي، مما يميزها عن المحادثات الشخصية.وطوّرت الشركة النموذج ليكون أكثر تفاعلًا اجتماعيًا، إذ يتابع سياق الحوار ويقرر تلقائيًا متى يرد أو يصمت، ويستجيب عند ذكر اسمه، بالإضافة إلى قدرته على التفاعل بالرموز التعبيرية. وأكدت" OpenAI" أن هذه الميزة تراعي حماية بيانات المستخدمين، مع التنبيه إلى ضرورة تجنّب مشاركة أي معلومات حساسة عبر الروابط العامة، خاصة في بيئات العمل. كما يُفضّل وضع ضوابط واضحة للمشاركين حول كيفية تداول الروابط ونطاق استخدامها، بما يضمن إدارة أكثر انضباطًا للمجموعات. تتوفر هذه الميزة لجميع مستخدمي ChatGPT، سواء الخدمات المجانية أو المدفوعة. غوغل تكسر الحواجز بين أندرويد وآبل وتتيح مشاركة الملفات لاسلكيًا بين هواتف بكسل وآيفون أعلنت "غوغل" عن تقنية جديدة تتيح مشاركة الملفات لاسلكيًا بين هواتف "أندرويد" وهواتف" آيفون"، بدءًا من سلسلة "غوغل بكسل 10"، منهية بذلك معاناة ملايين المستخدمين من صعوبة تبادل الملفات بين النظامين. تعمل ميزة "Quick Share" في "أندرويد" بتناغم كامل مع ميزة "AirDrop" الشهيرة في نظام التشغيل "iOS"، مما يسمح بنقل الملفات والوسائط بسهولة وسرعة في كلا الاتجاهين من دون الحاجة إلى أي تطبيقات خارجية. حسب "غوغل" بُني النظام على أسس أمنية قوية باستخدام لغة Rust، وهي لغة برمجة متعددة النماذج تركّز على الأداء والأمان. ويتطلب نظام تبادل الملفات موافقة الطرف المستقبِل قبل استلام أي ملف، مما يمنح المستخدمين تحكمًا كاملًا. بدأت "غوغل" بنشر هذه الميزة تدريجيًا إلى هواتف "بكسل 10"، تعمل "غوغل" على توسيع نطاقها ليشمل أجهزة "أندرويد" الأخرى قريبًا، بهدف تعزيز التناغم بين الأجهزة المختلفة في عصر تتعدد فيه الأنظمة والمنصات. برنامج التصفح Comet: بين طفرة التصفح بالذكاء الاصطناعي وتهديدات الخصوصية والأمن السيبراني بعد أجهزة الكمبيوتر أطلقت "Perplexity" برنامج التصفح "Comet" على الأجهزة التي تعمل بنظام التشغيل "أندرويد" ، ليقدّم تجربة تصفح تعتمد بعمق على الذكاء الاصطناعي؛ إذ يمكن للمستخدم الاستفسار عن علامات التبويب، أو استخدام الأوامر الصوتية، كما يعمل المساعد كوكيل قادر على تنفيذ مهام بحث وتسوق تلقائيًا. وتخطط الشركة لإضافة مدير كلمات مرور، واختصارات سريعة، ووكيل محادثة للتنقل بين المواقع. يشمل الإصدار أيضًا حظر إعلانات مدمج، ويأتي هذا الإصدار في وقت يشهد سوق برامج التصفح المدعومة بالذكاء الاصطناعي تنافسا متصاعدا بين أوبن إي آي وبرنامجها Atlas وبرنامج Neon من أوبرا و Arc و Dia من The Browser Company. ورغم ميزاته، يثير Comet مخاوف حول الخصوصية، خاصة بعد كشف شركة SquareX المتخصصة في أمن المعلوماتعن ثغرة خطيرة في واجهة MCP- Model Context Protocolفي برنامج التصفح Comet ، وهو بروتوكول مصمم لربط نماذج الذكاء الاصطناعي بالأدوات والخدمات ومصادر البيانات الخارجية. و قد سمحت هذه الثغرة بتنفيذ برمجيات خبيثة عبر هجوم يسمى «extension stomping»، ما يمكّن من تشغيل برنامج الفدية WannaCry دون إذن. ورغم إعلان إصلاح الثغرة، يؤكد الباحثون أن اعتماد Cometعلى بنية نموذج Perplexity يجعله عرضة لهجمات -XSS Cross-Site Scripting-التي تعرف "بهجوم حقن النصوص البرمحية عبر موقع وسيط" عن طريق إدخال بعض الشيفرات البرمجية الخبيثة للصفحات التي يستعرضها المستخدمون. هذا بالإضافة إلى مشكلة التطفل على الخصوصية التي تتسم بها برامج تصفح نماذج الذكاء الاصطناعي. مما يطرح سؤالًا جديًا حول توازن سهولة استخدام الذكاء الاصطناعي مقابل مخاطر الخصوصية. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تستضيف نايلة الصليبي في "النشرة الرقمية" المهندسة هناء الرملي، الكاتبة والخبيرة الاستشارية في الإنترنت الآمن وجرائم الإنترنت الخاصة بالأسرة والطفل، لتشرح أسباب الاستخدام المفرط لروبوتات المحادثة المدعومة بالذكاء الاصطناعي من قبل المراهقين. وما هي مخاطر هذا الاستخدام ،كما تقترح مجموعة من النصائح للأهل لمواجهة استخدام أبنائهم المفرط لروبوتات المحادثة المدعومة بالذكاء الاصطناعي. تتزايد ظاهرة اعتماد المراهقين على روبوتات المحادثة المدعومة بالذكاء الاصطناعي كبديل عن العلاقات الواقعية، حيث أظهرت دراسة عن منظمة (Common Sense Media) أن 72% من المراهقين استخدموها و33% منهم أقاموا صداقات معها. رغم فوائدها في الدعم المعرفي وتقديم الدعم النفسي، لكن لهذا الإقبال من قبل المراهقين تكلفة كبيرة. فقد وقعت حوادث مأساوية، منها انتحار مراهق (14 عامًا) من فلوريدا وآخر (16 عامًا) من كاليفورنيا، وغيرها من الأحداث التي دفعت عدد من العائلات لمقاضاة شركات مثل Character.AI وOpenAI. هذا ونتيجة تكرار الحوادث المأساوية أوقفت شركة "أوبن إي آي" "شات جي بي تي" عن تقديم النصائح الطبية. لكن حتى الآن ليس هنالك من قيود لاستخدام المراهقين لروبوتات المحادثة. للتطرق إلى أسباب و مخاطر الاستخدام المفرط لروبوتات المحادثة وكيفية مواجهة الأهل لهذا الاستخدام تستضيف نايلة الصليبي في "النشرة الرقمية" المهندسة هناء الرملي، الكاتبة والخبيرة الاستشارية في الإنترنت الأمن وجرائم الإنترنت الخاصة بالأسرة والطفل، التي تشرح أسباب لجوء المراهقين لروبوتات المحادثة المدعومة بالذكاء الاصطناعي. وما هو تأثير هذه العلاقة بروبوتات المحادثة في الصحة النفسية والعواقب الاجتماعية المحتملة على المراهقين، وتقترح المهندسة هناء الرملي مجموعة من النصائح للأهل لمواجهة استخدام أبنائهم المفرط لروبوتات المحادثة المدعومة بالذكاء الاصطناعي. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تستضيف نايلة الصليبي في "النشرة الرقمية"، جلال أبو خاطر، مدير السياسات في حملة المركز العربي لتطوير الإعلام الاجتماعي. لإلقاء الضوء على مسؤولية شركات التكنولوجيا الكبرى في حرب غزة وتورطها في جرائم حرب و شرح ما هي وظائف تقنيات المراقبة وأدوات الذكاء الاصطناعي التي تطورها وتنشرها وحدات الاستخبارات الإسرائيلية، بلا أي قيود، في الأراضي الفلسطينية، التي تتسبب في زيادة العنف وانتهاك حقوق الإنسان. كما طور الجيش الإسرائيلي أدوات الذكاء الاصطناعي لتسهل على مراكز القيادة والسيطرة أداء مهماتهم العسكرية. وتقارير عدة كشفت عن استخدام الذكاء الاصطناعي كسلاح ساعد في قتل المدنيين في غزة. تعد الحرب على غزة واحدة من أكثر العمليات العسكرية التي شهدت استخدامًا مكثفًا للتكنولوجيا والذكاء الاصطناعي والبنية التحتية التكنولوجية الحديثة في توجيه الهجمات، مما يثير تساؤلات حول مسؤولية الشركات التكنولوجية الكبرى التي توفر هذه الأدوات للجيش الإسرائيلي. فقد كشفت العديد من التحقيقات الصحافية وتقارير منظمات حقوق الإنسان عن استخدام الجيش الإسرائيلي للعديد من التقنيات الجديدة في حرب غزة منها أنظمة الاستهداف "الفعّالة" والمسيرات شبه المستقلّة، وأنظمة موسّعة للتعرّف على الوجه، كما لعبت تقنيّات الذكاء الاصطناعيّ دو رًا مقلقًا في هذه الحرب ما أدى حسب خبراء الأمم المتحدة كالمقررة الخاصة للأمم المتحدة فرانشيسكا ألبانيزي لكشف ما يمي "بأتمتة عمليّات القتل الجماعيّ" في غزة، ما يطرح السؤال عن دور العديد من شركات التكنولوجيا الكبرى في تسهيل الرِّقابة، وحجب المعلومات، في تفاقم انتهاكات الحقوق الرقميّة هذا بالإضافة إلى ما كشفت عنه تقارير مركز حملة - المركز العربي لتطوير الإعلام الاجتماعي في فلسطين عن أساليب الاستخبارات الإسرائيلية لجمع بيانات الفلسطينيين.وعن تطوير تقنيات المراقبة ونشرها بلا أي قيود في فلسطين وكيف تتسبب في مفاقمة العنف وانتهاك حقوق الإنسان في فلسطين، وأيضا كيفيّة ترابط الذكاء الاصطناعي وجمع البيانات والمراقبة والأتمتة في الحرب، وكيف تؤثر على الحقوق الرقميّة الفلسطينيّة في سياق الحرب على قطاع غزة، وضرورة مساءلة شركات التكنولوجيا الكبيرة. بالإضافة طبعا عن التقارير المختلفة عن تطوير أنظمة الذكاء الاصطناعي التي استخدمها الجيش الإسرائيلي في حرب غزة. فقد أفادت التقارير أن الجيش الإسرائيلي استخدم عدة أنظمة قائمة على الذكاء الاصطناعي في عملياته في غزة، لا سيما لتحديد الأهداف. كنظام: Lavender The Gospel (يُشار إليه أيضًا باسمه العبري Habsora): Where is daddy توصف هذه الأنظمة بأنها "أنظمة دعم القرار القائمة على الذكاء الاصطناعي" أو أدوات "الاستهداف الخوارزمي"، وهي مصممة لزيادة سرعة وحجم تحديد الأهداف بشكل كبير مقارنة بالطرق السابقة. كذلك كشف عن أنظمة أخرى: Fire Factory هو نظام آخر مدعوم بالذكاء الاصطناعي تختلف وظيفته الأساسية عن أنظمة مثل Lavender و The Gospel. يعمل على تبسيط التخطيط العملياتي وتنفيذ الهجمات: حساب أحمال الذخيرة: تحديد النوع والكمية المناسبين من الذخيرة اللازمة لهدف معين. تحديد أولويات الأهداف وتوزيعها: تخصيص عدد كبير من الأهداف لمنصات قتالية مختلفة، مثل الطائرات والطائرات بدون طيار. اقتراح جدول زمني: تقليص عملية تجميع الهجوم، وتقليل الوقت اللازم من ساعات إلى دقائق. بشكل أساسي، بمجرد أن يوافق محلل بشري على هدف تم تحديده بواسطة الذكاء الاصطناعي من نظام مثل The Gospel أو Lavender، يقوم Fire Factory بأتمتة الخطوات النهائية لإعداد حزمة الضربة، وتحويل قائمة الأهداف إلى عمليات عسكرية قابلة للتنفيذ بسرعة وعلى نطاق واسع. Fire Weaver هو نظام آخر مدعوم بالذكاء الاصطناعي يستخدمه الجيش الإسرائيلي، ولكن وظيفته لا تتعلق بتحليل المعلومات الاستخباراتية مثل Lavender و The Gospel بل بالتنسيق في الوقت الحقيقي في ساحة المعركة والتحكم في النيران على المستوى التكتيكي. من أبرز أنظمة كاميرات المراقبة التي تعمل بالذكاء الاصطناعي ويستخدمها الجيش الإسرائيلي: نظام "قطيع الذئاب" Wolf Pack: وهو عبارة عن قاعدة بيانات واسعة للغاية تحتوي على جميع المعلومات المتوفرة عن الفلسطينيين. نظام "الذئب الأزرق" Blue Wolf: تطبيق للهواتف الذكية يستخدمه الجنود الإسرائيليون لمسح وجوه الفلسطينيين في الشوارع أو عند نقاط التفتيش. يقوم التطبيق على الفور بسحب ملف تعريف الفرد وتصنيفه الأمني. غالبًا ما يكون الملف مرمزا بالألوان مثل الأحمر أو الأصفر أو الأخضر، من قاعدة بيانات Wolf Pack. نظام "الذئب الأحمر" Red Wolf: نظام نقاط التفتيش، نظام آلي للتعرف على الوجوه مثبت في نقاط التفتيش. يستخدم كاميرات عالية الدقة لمسح وجوه الفلسطينيين الذين يمرون عبرها. يقارن الوجه بقاعدة بيانات Wolf Pack ويقرر تلقائيًا السماح بالمرور، وغالبًا ما يرفض الدخول إذا كان الفرد غير موجود في النظام أو تم وضع علامة عليه على أنه يمثل خطرًا أمنيًا كبيرًا. نظام "وولف باك" Wolf Pack هو أحد المكونات الرئيسية لجهاز المراقبة الرقمية للجيش الإسرائيلي وقوات الأمن في الضفة الغربية والقدس الشرقية، وهو عنصر أساسي في استخدامهم لتكنولوجيا التعرف على الوجوه. يعتبر "وولف باك" Wolf Pack قاعدة بيانات ضخمة، وليس تطبيقًا للهاتف المحمول أو نظام كاميرات بحد ذاته. موضوعات متصلة: - حرب إسرائيل على غزة: مواجهة الاضطهاد الرقمي وحجب المحتوى الذي يوثق انتهاك حقوق الإنسان الفلسطيني - "حياة تحت المراقبة": الفلسطينيون ورعب العيش تحت المراقبة - طمس المحتوى الرقمي الفلسطيني على المنصات الاجتماعية يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تتطرق نايلة الصليبي في "النشرة الرقمية" إلى ظاهرة "هُرَاءٍ الذكاء الاصطناعي" أو "AI Slop" التي برزت مع أدوات توليد الفيديو بالذكاء الاصطناعي التي تملأ الإنترنت بالمحتوى الرديء وتدفن المحتوى الأصلي ، ما يهدد الثقة العامة في الإعلام والصورة كدليل. فما هي هذه الظاهرة؟ مع تطور تقنيات الذكاء الاصطناعي، بات إنتاج محتوى مزيف بجودة عالية أسهل وأرخص من أي وقت مضى. لا تترك مقاطع الفيديو القصيرة المولدة بالذكاء الاصطناعي وقتاً للتفكير النقدي، مما يجعلها أداة فعّالة لنشر المعلومات المضللة والأخبار المضللة. أغلب مقاطع الفيديو التي ينتجها الذكاء الاصطناعي لا تتجاوز 8 ثوانٍ فهذه الثواني القليلة هي كل ما يحتاجه الذكاء الاصطناعي لاستثارة العواطف، وجذب الانتباه، وربما التضليل بمحتوى مزيف يبدو واقعياً تماماً. هذا هو العالم الجديد الذي يُعرف باسم "AI SLOP" أي "هُرَاءٍ الذكاء الاصطناعي". ما هو "هُرَاءٍ الذكاء الاصطناعي" أو" AI Slop"؟ يُطلق مصطلح AI Slop أو "هُرَاءٍ الذكاء الاصطناعي" على الإنتاج الجماعي لمحتوى مرئي باستخدام أدوات توليد الفيديو بالذكاء الاصطناعي. هذه الأدوات لا تحتاج إلى خبرة ولا إلى جهد كبير، وباستخدام أدوات رخيصة، بل إلى بضع كلمات فقط لتتحول إلى مشاهد "واقعية" تملأ الإنترنت وتدفن المحتوى الأصلي والموثوق تحت أكوام من الزيف. نماذج مثل Veo3 من غوغل و Sora من أوبن إي آي و غروك من xAI أصبحت قادرة على: إنشاء مقاطع فيديو واقعية للغاية مع صوت داعم متطابق وتحويل صورة واحدة إلى بضع ثوان من الحركة المقنعة، وإنشاء مشاهد معقدة تضم عدة أشخاص يتفاعلون ويتحدثون في غضون 5 دقائق فقط غالباً ما تكون هذه المقاطع قصيرة جداً 6 أو 8 أو 10 ثوانٍ أو تُجمع على شكل لقطات قصيرة متتابعة. -لماذا هذا القصر؟ ولماذا تشكّل خطراً حقيقياً على الوعي البشري؟ تشير البحوث إلى أن نماذج توليد الفيديو، مثل Veo3 من غوغل، لا تستطيع عادة إنتاج أكثر من 240 إطاراً في المقطع الواحد أي نحو 8 ثوانٍ فقط. يتكون الفيديو من سلسلة من الصور المتتالية، حيث يحتوي كل ثانية على 30 إطارا (الدقة القياسية للفيديو). هذا يعني أن مقطع 8 ثوان يتطلب إنتاج 240 صورة. إنتاج مقاطع أطول يتطلب قوة حوسبة هائلة، وغالباً ما يؤدي إلى أخطاء في الحركة أو تغيّرات مفروضة في المشهد. غير أن OpenAI أعلنت أن تطبيق Sora أصبح قادرًا على توليد مقاطع فيديو تصل مدتها إلى 25 ثانية. و ما علاقة العقل البشري بمدة الفيدو Ai Slop حين تكون المقاطع قصيرة جداً، لا يجد الدماغ وقتاً كافياً للتحليل أو الشك، فيتفاعل عاطفياً بدلاً من التفكير المنطقي. وبذلك، تصبح هذه المقاطع أدوات مثالية للتأثير، والتضليل، ونشر المحتوى العاطفي أو المزيّف بسرعة هائلة. و من هنا لم يعد التهديد يقتصر على الترفيه أو المزاح. فقد استُخدم الذكاء الاصطناعي لإنتاج فيديوهات مزيفة لمذيعات أخبار لنشر معلومات مضللة او فبركة فيديو مضلل عن اعتقال مزيف لباراك أوباما من قبل الـFBI ، مقطع نشره دونالد ترامب نفسه في يوليو 2025 كما تُستخدم هذه المقاطع الرديئة مع المنصات الاجتماعية والذكاء الاصطناعي لنشر الكراهية ضد النساء والمحتوى الجنسي أو الكراهية ضد الأقليات على نطاق واسع ويستخدم محتوى الذكاء الاصطناعي أيضاً لتصنيع سرديات عنصرية وتحريضية تستهدف مجموعات معينة. تكرار هذا النوع من المحتوى يجعل سلوك الكراهية يبدو "طبيعياً" مع مرور الوقت. والمشكلة اليوم حتى الفيديوهات الحقيقية باتت تُقابَل بالشك، ما يهدد الثقة العامة في الإعلام والصورة كدليل. كيف يمكن كشف مقاطع الذكاء الاصطناعي المضللة؟ مع عدم وجود أدوات فعالة للعامة، هذه بعض العلامات التي تكشف أن الفيديو الذي نشاهده ربما ليس حقيقياً: ثبات المشهد: لا تغيّر في الزوايا أو الكاميرا. نصوص غريبة: كلمات بلا معنى على اللافتات أو الميكروفونات. أجسام مشوهة: أيدٍ أو أصابع بعدد غير طبيعي أو حركات غير منطقية. غياب العمق البصري: لا يوجد تمويه واقعي أو إضاءة متغيرة. زوايا مرتفعة بشكل مبالغ فيه: تُستخدم كثيراً في المقاطع التي تزعم عرض كوارث أو حروب. يبدو أيضا أن الموسيقى والمغنين المشهورين أصبحوا أيضا ضحية AI SLOP مع ظهور أدوات الموسيقى بالذكاء الاصطناعي مثل SunoوUdio التي يتيح لأي شخص إنشاء أغنية منسقة في ثوانٍ، وغالبًا بأصوات تشبه المشاهير. وبات يمكن لأي شخص أن يستنسخ أصوات ثلاثة فنانين مشهورين وينتج أغنية مزيفة تصل إلى قوائم الأغاني كما حدث على منصة spotify حين ولد أحدهم أغنية بتعاون المزيف” بين باد باني وجاستن بيبرو دادي يانكي ما الذي يمكن فعله؟ تعمل شركات كبرى مثل غوغل على إضافة علامات مائية غير مرئية إلى كل محتوى تولده أدواتها مثل Veo3، لكن المشكلة أن المستخدم لا يراها. كذلك أعلنت Spotify أنها أزالت 75 مليون مقطع موسيقي مزيف العام الماضي. كما وضعت قواعد صارمة ضد انتحال الهوية، ونظامًا جديدًا لتصفية الموسيقى المزعجة، وآلية اختيارية للفنانين للإفصاح عن استخدامهم للذكاء الاصطناعي. كما يطالب الخبراء بأن تُجبر المنصات على تمييز المحتوى الاصطناعي بوضوح أمام المستخدمين. المشكلة أنه حتى الآن، أدوات كشف الذكاء الاصطناعي ليست دقيقة. فأصبح وعي المستخدم هو خط الدفاع الأول. فإذا أثار الفيديو المشاعر بشدة غضباً أو حزناً التوقف والتفكّير قبل مشاركته، والتحقق من مصدر الحساب. والبحث إن كان هنالك تغطية إعلامية للحدث في المواقع الموثوقة. إذ صمم العالم الرقمي اليوم لإثارة المشاعر أكثر من العقل وفي زمن تتفوق فيه المشاعر على المنطق، يصبح الوعي الرقمي هو السلاح الحقيقي. من" AI Slop" " هُرَاءٍ الذكاء الاصطناعي". يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تنقل نايلة الصليبي في "النشرة الرقمية" دراسة قامت بها شركة OpenAI المطورة لبرنامج ChatGPT تؤكد فيها أن هلوسات الذكاء الاصطناعي ليست مجرد عيوب هندسية يمكن إصلاحها، بل حقيقة رياضية تنبع من قيود إحصائية وحسابية أساسية لا يمكن تجاوزها. وصف باحثون من شركة OpenAI في دراسة علمية نشرت في سبتمبر 2025.بأن مشكلة الهلوسة: "مثل الطلاب الذين يواجهون أسئلة امتحان صعبة، فإن النماذج اللغوية الكبيرة تخمن أحياناً عندما تكون غير متأكدة، وتنتج عبارات معقولة، ولكنها غير صحيحة بدلاً من الاعتراف بعدم اليقين". لم تكتف الدراسة بالنظريات، بل اختبرت نماذج متقدمة من مختلف الشركات. عندما سُئل نموذج DeepSeek-V3 الذي يضم 600 مليار من المعلمات " parameters عن عدد حروف D في كلمة "DEEPSEEK" ، تراوحت إجاباته بين "2" و"3" في عشر تجارب منفصلة، بينما قدمت نماذج Meta AI وClaude 3.7 Sonnet إجابات مشابهة تضمنت أرقاماً مبالغاً فيها مثل "6" و"7". معلمات نموذج اللغة الكبير (LLM) هي الإعدادات التي تتحكم في مخرجات وسلوك نموذج اللغة الكبير (LLM) وتُحسّنهما. من أين تأتي هذه الأخطاء المحددة؟ تتعلم نماذج اللغة أولاً من خلال التدريب المسبق، وهي عملية توقع الكلمة التالية في كميات ضخمة من النصوص. على عكس مشاكل التعلم الآلي التقليدية، لا توجد علامات” صحيح /أم / خطأ“مرفقة بكل عبارة. فمن الصعب للغاية التمييز بين العبارات الصحيحة والعبارات غير الصحيحة عندما لا يكون هنالك أمثلة مصنفة على أنها غير صحيحة. ولكن حتى مع وجود العلامات، فإن بعض الأخطاء لا مفر منها. لفهم السبب، لنأخذ مثالاً بسيطا في التعرف على الصور، إذا صُنفت ملايين الصور للقطط والكلاب على أنها” قطط“ أو ”كلاب“، يمكن للخوارزميات أن تتعلم تصنيفها بشكل موثوق. ولكن بدلاً من ذلك، تُصنف كل صورة للحيوانات الأليفة حسب تاريخ ميلادها. لأن تواريخ الميلاد هي عشوائية في الأساس، فهذا سيؤدي دائمًا إلى أخطاء، بغض النظر عن مدى تقدم الخوارزمية. ما هي عوامل الهلوسة الحتمية؟ حددت دراسة Open AI ثلاثة عوامل رياضية تجعل الهلوسة أمراً لا مفر منه: عدم اليقين المعرفي - epistemic uncertainty يحدث عندما تكون المعلومات نادرة الظهور في بيانات التدريب، مما يجعل النموذج يضطر للتخمين. قيود النموذج الحسابية model limitations تظهر عندما تتجاوز المهام المطلوبة القدرة التمثيلية للبنى التكنولوجية الحالية. الصعوبة الحسابية المتأصلة - computational intractability مشاكل لا تستطيع حتى الأنظمة فائقة الذكاء حلها نظرياً. كما كشفت الدراسة أن أساليب التقييم الصناعية الحالية تشجع الهلوسة فعلياً. فمن أصل عشرة تقييمات رئيسية شملتها الدراسة، تسعة منها تستخدم نظام تصنيف ثنائي يعاقب الإجابات الصريحة "لا أعرف" بينما يكافئ الإجابات الخاطئة لكن الواثقة. ما هو مستقبل الذكاء الاصطناعي في ظل تحدي الهلوسات؟ تؤكد نتائج دراسة OpenAI أن هلوسات الذكاء الاصطناعي ليست تحدياً هندسياً مؤقتاً يمكن حله بمزيد من التطوير، بل حقيقة رياضية دائمة تتطلب إعادة تفكير جذرية في طريقة استخدام هذه التقنيات. بالنسبة للشركات والمؤسسات، الرسالة واضحة: ضرورة تطوير أطر حوكمة جديدة واستراتيجيات إدارة مخاطر تتعامل مع واقع أن مستوى معيناً من عدم الموثوقية سيستمر بغض النظر عن التحسينات التقنية المستقبلية. هذا الاعتراف من OpenAI قد يمثل نقطة تحول في صناعة الذكاء الاصطناعي، حيث يتحول التركيز من محاولة القضاء على الهلوسات إلى تعلم كيفية التعايش معها وإدارة مخاطرها بطريقة فعالة. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تستضيف نايلة الصليبي في "النشرة الرقمية" محمد نجم ، المدير التنفيذي لمنظمة "سميكس" ، الذي يشرح ما هي البيانات التي يمكن للطائرات المسيرة الإسرائيلية التقاطه.وكيف يمكن حماية بياناتنا من تطفل وتجسس هذه المسيرات، و مسؤولية الدولة اللبنانية من إيجاد سبل قانونية لحماية المواطن اللبناني من هذا التجسس والتطفل على خصوصيته وعلى حياته . ما هي البيانات التي تلتقطها الطائرات المسيرة الإسرائيلية فوق رؤوس المواطنين اللبنانيين وكيف يمكن الحد من مخاطر هذا التطفل؟ تحلق يوميا فوق رؤوس اللبنانيين، في كل المناطق اللبنانية، طائرات مسيّرة إسرائيلية قادرة على جمع أنواع كثيرة من البيانات والمعلومات،وهو أمر مقلق للمواطن اللبناني، أو أي مواطن أخر، مجبر للخضوع لهذه المراقبة غير القانونية. كثيرون يسألون ما هي البيانات التي يمكن للطائرات المسيرة الإسرائيلية التقاطها،وكيف يمكن حماية بياناتنا من تطفل وتجسس هذه المسيرات وكيف يمكن مواجهة هذا التطفل من ناحية القانون؟ عن هذه الأسئلة وغيرها يجيب في "النشرة الرقمية " محمد نجم،المدير التنفيذي لمنظمة "سميكس"التي تعنى بالنهوض وبالدفاع عن حقوق الإنسان في العالم الرقمي في منطقة غرب آسيا وشمال إفريقيا. سينطلق ملتقى "خبز ونت" السنوي الذي تنظمه سميكس في 29 من أكتوبر حتى أخر أكتوبر2025 . وهو ملتقى يجمع الناشطين، والمبرمجين، والصحفيين، وصنّاع السياسات، وكل المهتمّين بمجالات تقاطع التكنولوجيا وحقوق الإنسان في المنطقة العربية. نص المقابلة : ما هي البيانات التي يمكن للطائرات المسيرة الإسرائيلية التقاطها؟ محمد نجم: أول شيء نحن بدنا نفكر بنوعين من الاستهداف في الاستهداف العام اللي هو درون ماشي عم تجمع بيانات كيف ما كان عن كل الناس الموجودين في استهداف محدد لأفراد معينين، هذا الشيء نحن ما اختصاصنا وما عنا عنه معلومات بس حنحكي عن الشيء المختص بالناس العاديين، يعني نحن مثلا قاعدين بالمكتب قاعدين بالبيت ماشيين عالطريق، شو نوع البيانات يلي ممكن مثلا هيرمس 450 أو هيرمس 900 يقدروا يجمعوها عنا نحن كمواطنين، هلأ أول شي هيدا النوع قادر يخلق يعني مثل أنتينا بفكر التلفون إنه عم يحكي مع بصير يأخذ منه معلومات كل شي معلومات عن التلفون، بس هيدا التلفون ينتهي برقم التليفون اي "اي ام اس اي " يعني كل شيء يخصه بالتلفون بالشريحة السيم كارد. كل هالقصص بيصير عندها كل الداتا اللي عم بتجمعها بطريقه تلقائيه يعني ونحن هون مش مستهدفين يعني. بس هني عم يجمعوا خزنه بيانات عن المواطنين. اكيد ديفايس الثاني يلي موجود بالبيت يلي هو اساسي للدرون هو الراوتر يلي موجود عنا بالبيت. الراوتر بيقدروا يعرفوا الاي بي ادرس IP Adress تبعه إذا هو بس انه مبدئيا كل هذا النوع من من عم بتكون كتير فبس يفوتو على الراوتر بيصيروا يعرفوا مين عم يشبك الراوتر. أي نوع اي نوع تلفونات، اي كومبيوترات بيقدروا يرسمون خريطة، علاقات، شبكة علاقات بين الناس، بين التلفونات بين كومبيوترات فهيدا. كمان معلومات تانية قادرين هن يجمعوها بعدين بننتقل للصور والفيديو بالرصد البصري والحراري وفي تصوير عالي الدقه فهون فيهن يشوفوا لوحات السيارات. ارقام السيارات. رقم السيارة مع الاي بي ادريسIP Adress تبع التليفون حتى يشوفوا الناس بالليل مع الانفراريد. فكل هذه البيانات كمان فيها تتشابك مع بعضها وتربط مع بعضها وبتكون موجودة عندهم بخزنة البيانات كلها. فتقريبا هي المعلومات يلي بنعرف انه هم قاعدين يجمعونها. هل نحن عندنا معلومات عن كل شي بتقدر تعمل الدرونز؟ الجواب هو لا. لانه هيدي بالنهاية طائرات عسكرية. فكل هالمعلومات هي من مصادر مفتوحة تم تسريبها او تم نشرها. كرمال هيك نحن منعرف عنا. ما هي البيانات أو المعلومات التي لا يمكن ان تلتقطها الطائرات؟ محمد نجم : كل شيء نحن نستعمله يكون مشفر. مش لازم الدرون تقدر تلقطه إلا إذا استهدفوا شخص معين. مثلا إذا نحن عم نستعمل الواتس اب أو سيغنال هذه التطبيقات هي مشفرة، فإذا أنا وياك عم نحكي مثلا على واتس اب أو سيغنال ما بيقدروا يعرفوا انه شو الرسالة اللي انبعثت من محمد لنايلة او نايلة لمحمد. بس هني قادرين يعرفوا مين عم يحكي مع مين . لأنه تم استجواب التلفون ، وصار عندهم قدرة وصول لبعض البيانات الوصفية. قادرين هني يعرفوا مين عم بحكي مع مين هيدا الاي بي ادريس IP Adressعم يحكي مع هيدا الاي بي ادريس IP Adressعن طريق سيغنال الساعة كذا الى اخره. وفي فرق بين الداتا و الميتاداتا، هم عندهم قدرة وصول الميتاداتا. في كتير ميتاداتا منها مشفرة. فسهل يقدروا يوصلوا لها. بس الرسائل الخاصة ما في يوصلوا لها. يعني احنا هون عم نحكي بس انه إذا هني عم ماشيين فوق البيوت إذا هن يستهدفوا حدن. وهيدا الشي إذا بدو يستهدفوا حدا بيجربوا يستهدفوا بيغاسوس يللي هي تابعة لشركة اسرائيلية. وهون صار موضوع تاني. إذا شخص صار مستهدف بحطه رقمه بجربو يخترقوا له الايفون تبعو. وهون كتير مهم الشخص يكون حاطط شي اسمه Lockdown Mode .لوك داون في يحمي الى حد ما من هذا النوع من من محاولات القرصنة. بس في حال قرصن التليفون. ساعتها هكون قادرين يعرفوا الرسائل الخاصة لأنهم بيفتحوا الكاميرا بيفتحوا الاوديو بيصيروا يقدروا يعرفوا كل شيء حتى عم يصير بالغرفه مع التليفون. ما هي سبل الحد من مخاطر تطفل هذه الطائرات؟ محمد نجم:هذا سؤال كتير مهم وبتصور هيدا السؤال. يعني كلنا نتحمل مسؤولية شو فينا نجاوب عليه؟ يعني نحن كل ما خففنا قديش بجمع بيانات كلما خففنا كمية الانتليجينسيا يللي صارت عندهن كمية هيدي المعلومات الميتاداتا ، يللي ممكن يستعملوها ضدنا كلنا كمواطنين. ففي بعض النصايح طبعا يعني اهمها انه يضل السوفتوير محدث . وشفنا نحنا بكتير محاولات قبل كمان من برمجيات خبيثة اسرائيلية كيف انه أبل رجعت عملت سوفتوير ابديت لتقدر تسكر الفجوة، فدائما السوفتوير هو بيفيد لنقدر نخفف كمية محاولات القرصنة على اجهزتنا. النقطة الثانية يللي كمان في ناس ممكن يفكروا فيها بطريقة شائكة لانه في كتير شركات اسرائيلية واكيد الناس جربت تتجنب الشركات الاسرائيلية. بس هو كمان نصيحة اساسية لأنه VPN بخبي الاي بي ادريسIP Adress تبع التلفون. يعني هلا في فوقي درون انا مشبك عن طريق الـVPN ما في يعرف رقم IP تبعي. يعني انا مخبي IP تبعي. نقطه مهمه للأشخاص انه فيهن يعملوا هيدا الشي. اكيد في بعض النصائح بتقول انه ينحط كمان. إذا واحد مثلا قاعد بالمكتب مش عم يستعمل تلفونه ينحط. air plane mode . نحن هون عم نخفف قديه عم تسحب منا بيانات شخصية لتقدر تستعملها ضدنا كلنا. هنا نطرح السؤال حول مسؤولية الدولة اللبنانية. أليس هنالك من سبل قانونية لحماية المواطن اللبناني من هذا التجسس والتطفل على خصوصيته وعلى حياته؟ محمد نجم: هلأ أكيد اللي عم بيصير حاليا هو خرق كتيرشغلات، خرق للسيادة. خرق للسيادة الرقمية. خرق للمعاهدات .للأسف الدولة اللبنانية ما عم نشوف في حراك على قد المسؤولية اللي لازم تكون .في خرق دائم وبشكل يومي بقلب لبنان في كل المناطق. وفي تقصير كبير من الحراك اللبناني برفع شكاوي، بالتوجه للأمم المتحدة، و غيرها. بس كمان في مسؤولية من الدولة اللبنانية بشكل عام. نحنا ما عنا هلق حاليا قانون للخصوصية، طبعا قانون خصوصية مش يحمينا هلق دغري ضد درونز . بس هو فكرة قانون الخصوصية لحمايتنا من الشركات المحلية ومؤسسات الدولة. لانه في تسريب كتير بيانات يعني في شغلات بتصير بشكل يومي بلبنان، في عنا كمان ثقافة يلي هي ما كتير مساندة لحماية البيانات الشخصية والخصوصية. هيدا الشي منو جديد من زمان. يعني بيصير انه بتكون امرأة مثلا ماشية بسيارتها ببيروت فجأة الا واحد بيتصل برقم تلفونها، بيكون شافها بسيارة بس ليتعرف عليها. ففي هذا النوع من خرق الخصوصية متاح لأنه ارقام السيارات يتم تسريبها والسيارة مسجلة باسم مين ورقم تلفون مين. الخ. للأسف يعني لازم يكون في تغيير بالثقافة في تغيير بطريقتنا. بالتفكير لموضوع الخصوصية. بدو يكون عنا مقاربه جديه أكثر. هلأ عنا منشوف بالحكومة عم يحكو وبدهم يعملو حكومة ذكاء اصطناعي ونحنا بعد ما عنا قانون الخصوصية، ففي عدم إدراك وعدم فهم للمصيبة يلي نحنا هلأ حاليا فيها ،من ناحية قديه عم بتم تجميع بياناتنا. وقديش هذه البيانات ممكن تأثر على المجتمع كله لسنه لخمس سنين لعشر سنين لقدام. فطبعا لازم نجرب نفكر بهالموضوع كرمال الاجيال التالية وكرمال نحن نقدر نحافظ على كينونتنا البشرية وخصوصيتنا وكل هالقصص. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تتطرق نايلة الصليبي في "النشرة الرقمية" إلى تقرير باحثين من "معهد جورجيا للتكنولوجيا" عن سلسلة من الثغرات الأمنية الحرجة في أجهزة التعقب Tile. وأيضا إلى ميزة جديدة أضافتها أبل متخصصة في حجب البصمة الرقمية. لحماية خصوصية المستخدمين. ثغرات أمنية خطيرة في أجهزة "تايل" للتعقب كشف فريق من الباحثين في معهد جورجيا للتكنولوجيا عن سلسلة من الثغرات الأمنية الحرجة في أجهزة التعقب" تايل" التي تعتمد على تقنية البلوتوث. وتُسوَّق هذه الأجهزة كبديل لأجهزة AirTags من آبل. حذر الباحثون من أن استغلال هذه الثغرات قد يسمح لأطراف ثالثة بتتبع جميع تحركات المستخدمين، بما في ذلك المراقبة على المدى الطويل، مما يضع خصوصية الملايين من مستخدمي هذه الأجهزة في خطر. ووفقاً للباحثين، تعاني أجهزة التعقب" تايل" من عيوب في التصميم تُعرّض بيانات مستخدميها للاختراق. إذ يرتبط كل جهاز" تايل" بعنوان Media Access Control MAC أي "عنوان التحكم بالنفاذ للوسط" .وأيضا لكل جهاز " تايل " معرّف هوية (ID) فريد . يبث المعرفان باستمرار عبر إشارات البلوتوث. وقد لاحظ الباحثون أن شركة Life360المطورة لجهاز التتبع هذا لم تشفّر هذه المعرّفات.وعدم تشفير البيانات، يعني، أن أي طرف ثالث يمتلك جهاز استقبال بلوتوث ضمن نطاق التغطية (وهو كناية عن ماسح ترددات الراديو والذي يمكن شراؤه بأسعار زهيدة)، يمكنه بسهولة، اعتراض هذه البيانات وتحديد موقع جهاز التعقب، وبالتالي تتبع تحركات مالكه. يُشير الباحثون إلى أن إرسال البيانات غير المشفّرة أيضاً إلى خوادم" تايل" يثير قلقاً بقدرة الشركة على تتبع حاملي الأجهزة، على الرغم من تأكيد الشركة المطورة لجهاز التعقب " تايل" أنها لا تستطيع تقنياً القيام بذلك. يعتبر الباحثون أن عيوب التصميم في هيكل الحالي لجهاز التعقب هذا يشكل تهديدا يؤدي إلى المراقبة الجماعية. كانت قد اعتمدت شركة Life360 لتعزيز أمن جهاز التعقب "تايل" نظاماً لـ "تدوير المعرّف"، حيث يتغير المعرّف الفريد للجهاز بانتظام. إلا أن الباحثين اكتشفوا أن هذا النظام ضعيف وقابل للتنبؤ. إذ يمكن لأي قرصان تحليل الأنماط التي تتغير بها المعرّفات السابقة والتنبؤ بالمعرّف المستقبلي للجهاز. ما يتيح مواصلة تتبع جهاز التعقب "تايل". كان قد تواصل الباحثون من "معهد جورجيا للتكنولوجيا"، مع شركة Life360، الشركة الأم لـ تايل، في نوفمبر عام 2024، لإبلاغهم بنتائج بحوثهم الأمنية. وعلى الرغم من تبادل الآراء حول نقاط الضعف هذه لعدة أشهر، توقفت الشركة عن التواصل في فبراير2025. أوضحت شركة Life360 لموقع Wired الذي كشف عن تقرير فريق الباحثين في "معهد جورجيا للتكنولوجيا" أنها "أدخلت عدداً من التحسينات" على نظامها الأمني استجابةً للاكتشافات، لكنها لم تحدد ماهية هذه التغييرات أو تفاصيلها. لمن يستخدمون أجهزة التعقب "تايل" تواصلوا مع شركة Life360 لتحديث أجهزتكم. أبل تعزز حماية البصمة الرقمية في نظام التشغيل iOS26 نعرف اليوم أن كل جهاز كمبيوتر وكل جهاز محمول متصل بشبكة الإنترنت وأيضا البرامج المعلوماتية وبرامج تصفح الويب، لهم بصمة رقمية فريدة للتعريف بالبرنامج للقيام مثلا بالتحديثات وغيرها من الأمور التي تتعلق بالبرامج المدفوعة. وهذه الخصائص يمكن تسميتها بالبصمة الرقمية أو fingerprinting على سبيل المثال، عندما يتصل عميل بخادم ما، كبرنامج تصفح الإنترنت الذي يمتلك بصمة رقمية فريدة من نوعها ويمكن أن تحتوي على معلومات فريدة، يحصل الخادم الذي اتصل به برنامج التصفح أي العميل، على مجموعة البيانات حول خصائص هذا العميل. وتتكون البصمة fingerprinting من هذه المجموعة من الخصائص التي تشبه بصمات الأصابع للتعرف على مستخدم الإنترنت. البصمة الرقمية هي مجموعة البيانات والمعلومات التقنية المرتبطة بجهازنا الإلكتروني وببرنامج تصفح الإنترنت، والتي تتضمن أيضا: عنوان بروتوكول الإنترنت (IP Address)، وطراز الجهاز المستخدم، بالإضافة إلى مواصفات دقة شاشة العرض وغيرها من التفاصيل التقنية. وهنا تكمن الصعوبة في صدّ هذا النوع من التتبع إذ من السهل حظر ملفات تعريف الارتباط، لكن مكافحة fingerprinting أمر أكثر تعقيدًا. فهذه المعطيات قد تُوظّف لأغراض مثل كشف عمليات الاحتيال الإلكتروني أو تحسين الأداء الوظيفي للمواقع الإلكترونية، إلا أنها تنطوي على مخاطر جدية محتملة. إذ يمكن للشركات الإعلانية استغلال هذه المعلومات في إنشاء ملفات تعريفية شاملة ودقيقة عن المستخدمين بهدف استهدافهم بالحملات الإعلانية المُخصصة. كما قد تلجأ بعض المؤسسات التجارية إلى استعمال البصمة الرقمية لممارسة التمييز في الأسعار استنادًا إلى الموقع الجغرافي للمستخدم أو خصائصه الديموغرافية المتوقعة. وفي حالات أكثر خطورة، قد تصبح هذه المعلومات أداة بيد القراصنة لارتكاب جرائم الاحتيال وانتحال الهوية وسرقة البيانات الشخصية. نظرًا لهذه المخاطر والتهديدات المحتملة التي قد تنجم عن استغلال البصمة الرقمية بطرق خبيثة، عززت شركة آبل مستوى الحماية الأمنية عبر تطوير وإدماج ميزة جديدة متخصصة في حجب البصمة الرقمية ضمن نظام التشغيل الجديد iOS 26، تحمل اسم "الحماية المتقدمة من التتبع والبصمة الرقمية" (Advanced Tracking and Fingerprinting Protections)، وهي مصممة لتمكين المستخدمين من الحفاظ على سرية معلوماتهم وخصوصيتهم الرقمية عند استعمال برنامج التصفح "سفاري" تفعيل الحماية المتقدمة من التتبع والبصمة الرقمية للاستفادة من هذه الميزة، عليكم أولاً التأكد من أن نظام جهازكم مُحدث إلى iOS 26. بعد إتمام التحديث، يمكنكم تفعيل الحماية باتباع هذه الخطوات في الإعدادات: خطوات تفعيل الميزة في متصفح سفاري: فتح تطبيق "الإعدادات" (Settings) على جهازكم. تمرير للأسفل والبحث عن قائمة "التطبيقات" (Apps) للدخول إليها. من قائمة التطبيقات، اختيار متصفح "سفاري" (Safari). داخل إعدادات "سفاري"، مرِّر إلى الأسفل حتى تصل إلى خيار "متقدمة" (Advanced) والنقر عليه. في الشاشة المتقدمة، الضغط على "الحماية المتقدمة من التتبع والبصمة الرقمية" (Advanced Tracking and Fingerprinting Protections). أخيراً، تحديد "جميع أوضاع التصفح" (All Browsing). بمجرد اختيار هذا الخيار، تعززون بشكل كبير قدرة متصفح "سفاري" على مقاومة محاولات التتبع الخبيثة والبصمات الرقمية التي تُستخدم لبناء ملف تعريفي عن عاداتكم في التصفح، لكن إن كنتم تستخدمون برنامج تصفح آخر غير "سفاري" فلن يتوفر نفس مستوى الحماية. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تتطرق نايلة الصليبي في "النشرة الرقمية" خطر خفي يقلق خبراء الذكاء الاصطناعي آلا وهو بدء الذكاء الاصطناعي تلوّيث نفسه. الذكاء الاصطناعي يلوّث نفسه: هل نقترب من انهيار رقمي؟ منذ إطلاق "تشات جي بي تي" في نوفمبر 2022، دخل العالم مرحلة جديدة مع الذكاء الاصطناعي التوليدي. و رافق هذا التقدم الهائل خطر خفي يتصاعد يومًا بعد يوم: الذكاء الاصطناعي بدأ يلوّث البيئة الرقمية التي يعتمد عليها في التعلم والتطور.. يشبّه بعض الباحثين هذا التلوث بالتفجير النووي الأول عام 1945، حين تلوث الفولاذ بالإشعاع النووي واضطر العلماء للبحث عن فولاذ "نظيف" صُنع قبله، لاستخدامه في أجهزة علمية دقيقة. واليوم كقضية الفولاذ النظيف، يعتبر المحتوى المنشور على الإنترنت قبل 2022 نظيفًا، فالبيانات التي تنتجها نماذج الذكاء الاصطناعي التوليدي، من مقالات، وأكواد برمجية، وصور، حتى مراجعات المستخدمين، بدأت تتراكم ضمن مصادر التدريب المفتوحة، ما يؤدي إلى دورة مغلقة يتغذى فيها الذكاء الاصطناعي على مخرجات ذاته. ماذا يحدث عندما يتغذى الذكاء الاصطناعي على بيانات من إنتاجه؟ ستبدأ النماذج الجديدة بالدوران في دائرة مغلقة، وهذا التحول قد يؤدي إلى ما يُعرف بـ"انهيار النماذج" (Model Collapse)، وهي ظاهرة تفقد فيها النماذج تدريجيًا قدرتها على تقديم مخرجات دقيقة وموثوقة بسبب افتقارها إلى بيانات بشرية أصيلة. عندها تفقد الأنظمة تدريجيًا دقتها وموثوقيتها، وتتراكم الأخطاء على حساب العمق البشري في اللغة والمعرفة. فهنالك تجارب عملية أثبتت أن أداء النماذج يتراجع بوضوح عندما تزيد نسبة البيانات الاصطناعية على 20%. ومن المجالات التي برزت فيها المشكلة بوضوح تقنية التوليد المعزز بالاسترجاع (RAG) -retrieval-augmented generation-، وهي تقنية تعتمد عليها نماذج الذكاء الاصطناعي لتعويض قصور بيانات التدريب القديمة عبر استرجاع معلومات آنية من الإنترنت. ومع ذلك، فإن هذه المعلومات الحديثة قد لا تكون محصنة ضد التلاعب من قِبل الذكاء الاصطناعي نفسه، وقد أظهرت بعض الدراسات أن هذا قد يؤدي إلى زيادة كبيرة في إنتاج روبوتات المحادثة لاستجابات تُعد "غير آمنة". ما هي تداعيات هذه المشكلة على الشركات الناشئة في مجال الذكاء الاصطناعي؟ الشركات الرائدة مثل "أوبن إي آي" ، "أنتروبيك" ، "ديب مايند" من غوغل ، "ميتا" و أيضا xAI كانت سبّاقة في الوصول إلى مجموعات بيانات ضخمة ونظيفة قبل موجة التوليد الآلي. أما الشركات الناشئة اليوم، فتواجه صعوبة متزايدة في الوصول إلى نفس المستوى من الجودة. هذا الاختلال يُهدد بتكريس احتكار تقني طويل الأمد، حيث تتحكّم قلة من المؤسسات بالمصادر القابلة للتدريب، وهو ما يعوق المنافسة ويحدّ من الابتكار، خصوصًا في المجتمعات العلمية والبحثية محدودة الموارد. إذن، ما الحلول الممكنة؟ يقترح الباحثون عدة إجراءات: التعليم الفيدرالي (Federated Learning): تقنية تسمح بتدريب النماذج دون الحاجة إلى نقل البيانات الحساسة، ما يحافظ على خصوصية المصدر البشري. إضافة علامات مائية رقمية (Watermarking): لتمييز المحتوى المولّد آليًا عن المحتوى البشري الأصلي. توسيع قواعد البيانات المغلقة: كمنصات البحث الأكاديمي أو أرشيفات الويب القديمة، وجعلها متاحة للمجتمع العلمي تحت تراخيص واضحة. لكن هذه المبادرات لا تزل بحاجة إلى دعم قانوني وتنظيمي صارم. ومع غياب تشريعات واضحة في الولايات المتحدة والمملكة المتحدة، تبدو أوروبا أكثر تقدمًا عبر "قانون الذكاء الاصطناعي الأوروبي" الذي يسعى إلى تقنين تطوير ونشر هذه التقنيات ما الذي سنفقده إذا وصلنا إلى تلك النقطة؟ المعرفة البشرية نفسها ستكون على المحك. إذا فقدت نماذج الذكاء الاصطناعي مصدرها البشري الأصيل، فسيتحوّل المستقبل إلى دائرة مغلقة من إنتاج آلات… من أجل آلات. المطلوب اليوم ليس فقط أن نفهم الذكاء الاصطناعي، بل أن نحميه من نفسه. إذا استمر التلوث الرقمي بهذا الشكل، فقد نصل إلى نقطة لا يمكن فيها تدريب أي نموذج ذكاء اصطناعي على بيانات نظيفة مجددًا. وهذا يعني أن المستقبل كله سيُبنى على محتوى من إنتاج آلات… من أجل آلات. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تتطرق نايلة الصليبي في "النشرة الرقمية" إلى خطوة "مايكروسوفت" بوقف خدمات سحابية cloud storage وتقنيات ذكاء اصطناعي عن وحدة الاستخبارات العسكرية الإسرائيلية 8200 و إلى غضب دونالد ترامب من هذه الخطوة وإلى تصريحات رئيس رئيس الوزراء الإسرائيلي بنيامين نتنياهو الذي يعبر عن جَذِله من سيطرة أوراكل على عمليات "تيك توك" في الولايات المتحدة. لماذا أوقفت مايكروسوفت خدماتها عن وحدة 8200 الإسرائيلية؟ وضغوط ترامب لإقالة رئيسة الشؤون العالمية في مايكروسوفت خطوة مايكروسوفت بوقف خدمات سحابية Cloud Storage وتقنيات ذكاء اصطناعي عن وحدة الاستخبارات العسكرية الإسرائيلية "8200" ليست مجرد قرار تقني، بل رسالة سياسية وأخلاقية. فقد وجدت مايكروسوفت نفسها في قلب جدل عالمي وتعرضت لضغوط داخلية من موظفين طالبوا الشركة بمسؤولية أخلاقية، مثل حركة “No Azure for Apartheid”. ، خاصة بعد كشف تحقيق صحفي مشترك بين صحيفة "The Guardian "-" +972 Magazine" و"Local Call "عن استخدام البنية التكنولوجية الأمريكية في مراقبة الفلسطينيين بشكل جماعي mass surveillance عبر جمع وتخزين كميات هائلة من المكالمات والبيانات المواطنين الفلسطينيين، وتحليلها باستخدام قدرات الحوسبة السحابية والذكاء الاصطناعي لتابع لمايكروسوفت يخالف شروط الاستخدام (terms of service) الخاصة بها. وهو ما يتعارض أيضا مع معايير الخصوصية وحقوق الإنسان. يبدو أن الرئيس الأمريكي دونالد ترامب له رأي مختلف من رغبة مايكروسوفت في الالتزام المعنوي بسياسات الخصوصية، والأخذ بعين الاعتبار الحقوق الرقمية، والأطر القانونية الدولية، خصوصاً في ضوء تقارير حقوق الإنسان التي تنتقد استخدام التكنولوجيا في النزاعات. فقد قام دونالد ترامب فورا وعلى خلفية قرار مايكروسوفت بوقف الخدمات للجيش الإسرائيلي، بالضغط على مايكروسوفت، مطالبا بإقالة Lisa Monaco، رئيسة الشؤون العالمية في مايكروسوفت، واصفاً إياها بأنها تمثل تهديدًا للأمن القومي الأمريكي. Lisa Monaco هي مقربة من الحزب الديمقراطي وشغلت منصب نائبة وزير العدل في عهد جو بايدن. تأتي تصريحات دونالد ترامب هذه باعتبار أن أي شركة أمريكية تتخذ مثل هذه الخطوات يجب أن تُحاسب، خصوصًا إذا كان القرار يُنظر إليه باعتباره انحيازًا أو تراجعًا عن الدعم التقليدي لإسرائيل. نتنياهو يرحب بصفقة أوراكل وتيك توك: "المنصات الاجتماعية هي أهم سلاح للحصول على تأييد الرأي العام" عبر رئيس الوزراء الإسرائيلي بنيامين نتنياهو في نيو يورك عن تأييده لصفقة نقل عمليات" تيك توك" في الولايات المتحدة إلى مستثمرين أمريكيين. فقد أصدر دونالد ترامب أمرًا تنفيذيًا يسمح بصفقة مقترحة لنقل عمليات تيك توك في الولايات المتحدة من شركة ByteDance الصينية إلى كونسورتيوم أمريكي يضم شركة Oracle، شركة Silver Lake، بالإضافة لمستثمرين اخرين، مع إشراف أمريكي على البيانات والإدارة على أن تخزن بيانات المستخدمين الأمريكيين في خوادم بولاية تكساس تحت إدارة شركة "أوراكل" مع مراقبة حكومية محتملة. وفي هذا الإطار وفي لقاء مع منتجي محتوى ومؤثرين أمريكيين يدعمون الحركة الصهيونية، صرَّح رئيس الوزراء الإسرائيلي بنيامين نتنياهو بأنّ المنصات الاجتماعية تُعَدّ "أهم سلاح" للحصول على تأييد الرأي العام في الولايات المتحدة. وأشار بشكل خاص إلى أن السيطرة على تيك توك ومنصة X إكس يمكن أن يكون لها تأثير كبير على الرأي العام. مخاطر حرية التعبير والمراقبة الجماعية: رؤية لاري إليسون (أوراكل) لـ "عصر جديد من المراقبة المستمرة" هنالك مخاوف عدّة فالإدارة الأمريكية الجديدة لمنصة" تيك توك" سيكون لها صنَّاع قرار أقرب إلى الحكومة الأمريكية وأيضا المستثمرين في هذا الاستحواذ يُعرف عنهم تأييدهم القوي لإسرائيل. وعندما يقول نتنياهو إنّ “تيك توك أهم سلاح الآن” و إيلون ماسك ليس عدواً، بل صديقا”، فهو يبيّن أن هناك رغبة إسرائيلية في التأثير ليس فقط عبر الوسائل العسكرية والسياسية، بل عبر الإعلام الرقمي وعبر منصات التواصل والتأثير على المحتوى. وهذا يعني أن الاستحواذ على تيك توك أو السيطرة على البنى التحتية الإعلامية يُرى كجزء من استراتيجية دبلوماسية / إعلامية. هنا من المحتمل أن تصبح حرية التعبير مهددة جزئيًا ليس بالضرورة أن يحدث منع صريح، لكن هناك مخاطر كبيرة من التوجيه السياسي للمحتوى، التمييز في التوزيع وتقييد الظهور (algorithmic bias ، بالإضافة على خضوع صناع المحتوى إلى الرقابة الذاتية خوفًا من الحذف أو حظر الحساب، كل هذه الأمور قد تؤدي إلى تقييد المحتوى الذي يدعم فلسطين أو ينتقد السياسات الإسرائيلية، عبر كما ذكرت حذف، حظر، أو تقييد الوصول للمحتوى بالإضافة إلى مخاطر الملاحقة القانونية بتهمة تهديد الأمن القومي الأمريكي، بالإضافة طبعا إلى تغيير معايير المنصة تحت تأثير المستثمرين الذين قد يكون لديهم مصالح معينة. كالمستثمر الرئيسي في "تيك توك" الشريك المؤسس لشركة أوراكل لاري إليسون الذي تجاوز بثروته ثروة إيلون ماسك، وقد أيده دونالد ترامب علنًا في مقابلة أجريت معه في 21 سبتمبر2025. وهو أيضًا أحد رواد مشروع الرئيس العملاق لتطوير الذكاء الاصطناعي، والذي تبلغ تكلفته 500 مليار دولار. أعلن لاري إليسون خلال اجتماع مع المحللين الاقتصاديين في 12 سبتمبر 2025: "سيُبشّر الذكاء الاصطناعي بعصر جديد من المراقبة الجماعية". كما يدعو إلى المراقبة المستمرة واللحظية، والتي يعتقد أنها ستُحسّن سلوك الجميع. وتوقع الملياردير في خطابه أمام المحللين: "سيتصرف المواطنون بسلوك مثالي لأننا سنُسجّل ونُبلغ باستمرار عن كل ما يحدث". وأضاف: "سيُراقَب كل ضابط شرطة باستمرار، وفي حال وجود مشكلة، سيُبلغ الذكاء الاصطناعي الشخص المعني". كما يتوقع لاري إليسون استخدام طائرات بدون طيار تعمل بالذكاء الاصطناعي لتحل محل مطاردات سيارات الشرطة.وعلى عكس إيلون ماسك، يهتم لاري إليسون بالسياسة، وهو متبرعٌ جمهوريٌّ منذ زمن طويل: ساهم في حملات راند بول وماركو روبيو، وساهم في حملة لجمع التبرعات لصالح دونالد ترامب عام 2016. ولديه علاقةٍ وثيقةٍ ومتميزةٍ مع بنيامين نتنياهو، وموّل بعض مشاريع ضمّ الأراضي في القدس، والتي طُعِنَ فيها منذ ذلك الحين باعتبارها غير قانونية. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تقترح نايلة الصليبي في "النشرة الرقمية" مقاربة مبسطة لتطور تقنيات الذكاء الاصطناعي، من نماذج اللغة الكبيرة إلى وكلاء الذكاء الاصطناعي، مرورا بروبوتات المحادثة باللغة الطبيعية. التطور التدريجي: من النماذج إلى الوكلاء نعيش اليوم في زمنٍ تتسارع فيه التكنولوجيا بشكل لم نشهده من قبل. قبل سنوات قليلة، كنا نندهش من قدرة الذكاء الاصطناعي على كتابة نص أو تلخيص مقال، وبعدها شهدنا تطورًا متصاعداً في قدرات الذكاء الاصطناعي، بدءًا من نماذج اللغة الكبيرة (Large Language Models - LLMs). وبعد ذلك اجتاحت العالم موجة من روبوتات المحادثة باللغة الطبيعية، التي أذهلت البشرية من "شات جي بي تي" إلى "جيميناي" - روبوتات تتحاور معنا وتساعدنا في الكتابة والتعلّم حتى الترفيه. نماذج اللغة الكبيرة: الأساس التقني يمكن أن نتخيل أنظمة ذكاء اصطناعي ضخمة، دُربت على كميات هائلة من النصوص لتتعلم أنماط اللغة والمعاني. هذه الأنظمة تمتلك قدرات ضخمة في فهم اللغة الطبيعية، وإنتاج النصوص، وتلخيص المعلومات، والإجابة عن الأسئلة. فهذه النماذج تشبه إلى حد بعيد قاموسًا ذكيًا ضخمًا، يعرف كيف يكتب نصًا أو مقالًا، غير أنه ليس لديه القدرة على تنفيذ مهمة عملية في العالم الخارجي. روبوتات المحادثة: الواجهة التفاعلية ثم جاءت روبوتات المحادثة - هذه التطبيقات المبنية على نماذج اللغة الكبيرة، لكنها مُصممة للتفاعل معنا عبر واجهة محادثة. جميعنا تعاملنا معها: "شات جي بي تي"، "كلود"، "جيميناي"، "ميسترال"، وغيرها الكثير. هذه الروبوتات تستطيع الرد على الأسئلة، والمساعدة في الكتابة، والشرح التعليمي، والبرمجة المعلوماتية، حتى المحادثة الترفيهية وغيرها من الأمور. لكن، روبوتات المحادثة هذه تبقى محدودة - لا تستطع اتخاذ قرارات أو القيام بخطوات عملية خارج الحوار. وكلاء الذكاء الاصطناعي: التحول الجذري وهنا نصل إلى وكلاء الذكاء الاصطناعي (AI Agents)، وهو ما يُعتبر التحول الجذري في الذكاء الاصطناعي. فهذه الأنظمة المتقدمة لا تكتفي بالإجابة النصية أو الصوتية، بل تستطيع "التفكير"، "التخطيط"، و"اتخاذ القرارات". لتقريب الفكرة، يمكن تشبيه نماذج اللغة الكبيرة بـ"محرك" السيارة الذي ينتج النصوص، وروبوتات المحادثة هي "السيارة" التي تنقلنا من سؤال إلى جواب، أما وكلاء الذكاء الاصطناعي فتُعتبر "السائق الآلي" الذي يعرف الوجهة، ويخطط للطريق، وينجز الرحلة كاملة دون الحاجة لتوجيه دائم. عند الطلب من المساعد الذكي التخطيط لرحلة عمل، روبوت المحادثة التقليدي يعطينا قائمة بالرحلات والفنادق، لكن وكيل الذكاء الاصطناعي يبحث عن أفضل الخيارات، ويحجز التذاكر والفندق، ويضيف المواعيد للمفكرة أو جدول الأعمال، ويطلب سيارة أجرة في الموعد المناسب. هذا يعني أن وكيل الذكاء الاصطناعي هو الجيل التالي من أدوات الذكاء الاصطناعي القادر على التفكير والتخطيط وتنفيذ الإجراءات في العالم الرقمي بشكل شبه مستقل. التحديات المستقبلية كما هو الحال مع أي تقنية جديدة، هناك تحديات عدّة يجب مواجهتها، وفي إطار وكلاء الذكاء الاصطناعي تتشابك التحديات مع طبيعة الذكاء الاصطناعي. -التحيزات الخوارزمية منها على سبيل المثال التحيزات الخوارزمية، حيث قد تُعيد الأنظمة إنتاج التحيزات الاجتماعية والثقافية الموجودة في البيانات التي دُربت عليها. -الخصوصية والأمان مسألة الخصوصية، اعتماد الوكلاء الأذكياء على كميات هائلة من البيانات الشخصية يثير مخاوف حقيقية حول سلامة استخدامها وتخزينها. وأيضًا يطرح سؤال أمن وكلاء الذكاء الاصطناعي، والتي حذرت منها مؤخرًا ميريديث وايتكر، رئيسة مؤسسة سيغنال (Signal Foundation)، مطورة تطبيق المحادثة "سيغنال". -الأمن السيبراني من التحديات الأخرى، أمن الأنظمة وكيفية حمايتها من الهجمات السيبرانية والاختراقات، خاصة عندما نتحدث عن وكلاء قادرين على التأثير في البنى التحتية الحيوية. -تأثيرات سوق العمل أخيرًا وليس آخرًا، القلق من التأثير على سوق العمل، فأتمتة العمل بوكلاء أذكياء سيؤدي إلى اختفاء وظائف وظهور وظائف أخرى تتطلب مهارات جديدة، مع احتمال استبدال عدد من الوظائف التقليدية بالآلات. الدعوة للحوكمة والتنظيم كثير من الباحثين والعلماء الذين يعتبرون أن وكلاء الذكاء الاصطناعي (AI Agents) ينقصها النضوج، يدعون الحكومات والمؤسسات الدولية لوضع أطر حوكمة وتشريعات واضحة، مع تعزيز الشفافية الخوارزمية، وإطلاق برامج لإعادة تدريب القوى العاملة، والاستثمار في بحوث تربط التقنية بالقانون والفلسفة والعلوم الاجتماعية. يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
تقترح نايلة الصليبي في النشرة الرقمية أنظمة تشغيل البدائل الممكنة لنظام التشغيل ويندوز 10، بعد اعلان مايكروسوفت وقف الدعم التقني له. نهاية "ويندوز 10"… ومستخدِمون يبحثون عن بدائل اعتباراً من 14تشرين الثاني/ أكتوبر2025، سيتوقف نظام التشغيل "ويندوز 10" عن تلقي التحديثات الأمنية من شركة مايكروسوفت، التي أطلقته الشركة عام 2015. هذا يعني أن أي جهاز يعتمد على النظام سيكون أكثر عرضة للاختراقات والهجمات السيبرانية، وهو ما يضع ملايين المستخدمين أمام معضلة أمنية تقنية شائكة. بدائل محدودة ومكلفة يُقدر أن 240 مليون جهاز كمبيوتر في حالة عمل جيدة ستجعلهم مايكروسوفت من دون فائدة obsolete بسبب خيارات محدودة ومكلفة. فقد أوصت مايكروسوفت المستخدمين بالانتقال إلى نظام التشغيل "ويندوز 11 " الذي وضع قيد الاستخدام منذ عام 2021. غير أن عدداً كبيراً من أجهزة الكمبيوتر لا تتوافق مع المتطلبات التقنية لنظام التشغيل "ويندوز 11 "، ما يضع أصحابها أمام خيار بديل تقترحه مايكروسوفت، وهو الاشتراك في التحديثات الموسعة (ESU Extended Security) مقابل 30 دولاراً أمريكيا سنوياً. هذا الخيار قد يكون عملياً على المدى القصير، لكنه يعني دفع تكلفة إضافية كل عام مقابل الاستمرار في استخدام جهاز قديم. انتقدت جمعيات حماية المستهلك هذا الخيار وتضغط على شركة مايكروسوفت لإطالة عمر نظام التشغيل "ويندوز 10". ما هي البدائل؟ إذا لم يكن جهازكم مؤهلاً للترقية إلى "ويندوز 11"، أو لا ترغبون في دفع تكاليف إضافية، يمكنكم التفكير في الانتقال إلى أنظمة تشغيل مجانية ومفتوحة المصدر. إذا كنتم مقربين من بيئة غوغل يمكنكم تجربة نظام التشغيل Chrome OS Flex. .و لمن لا يحبون الارتباط ببيئة غوغل يمكن تجربة توزيعة Linux Mint يتوفر أيضا نظام التشغيل AnduinOS وهو توزيعة من لينكس مبني على أوبونتو. صمّم AnduinOS مهندس من مايكروسوفت وهو مبني على توزيعة أوبونتو. صمم خصيصاً لتسهيل الانتقال من نظام التشغيل "ويندوز" إلى نظام التشغيل "لينُكس". يوفر AnduinOS واجهة رسومية تشبه إلى حد كبير "ويندوز11"، مع شريط مهام مركزي، وقائمة انطلاق مألوفة. يتيح AnduinOS إصدارين: - إصدار طويل الدعم (LTS) Long Term Support يناسب معظم المستخدمين، وإصدار آخر "قياسي" بدورة دعم أقصر لكنه يواكب أحدث المزايا. موضوع متصل : برامج وخدمات مجانية بديلة مفتوحة المصدر لخدمات شركات التكنولوجيا العملاقة يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي



