We're building a dystopia just to make people click on ads | Zeynep Tufekci



المترجم: Muhammad Rajab
المدقّق: Hussain Laghabi عندما يعبر الناس عن خوفهم
من الذكاء الاصطناعي، فهم في غالب الأحيان يستحضرون صور روبوتات
تشبه الإنسان وتجري مسعورة تريد الأذى كما في فيلم "تيرمينيتور". هذا قد يكون وارد الحدوث، لكن هذا تهديد بعيد. أو نقلق حول المراقبة الرقمية بمجازيات من الماضي مثل رواية "1984" لـ"جورج أورويل"، إنها في قائمة الأفضل مبيعاً مرة أخرى. إنه كتاب رائع لكنه لا يحوي وصف الديستوبيا المناسبة
للقرن الحادي والعشرين. أكثر ما يجب أن نخاف منه هو ليس ما سوف يفعله بنا الذكاء الاصطناعي
من تلقاء نفسه، ولكن كيف سيستخدم الناس ذوو السلطة
الذكاءَ الاصطناعي ليتحكموا بنا وليتلاعبوا بنا بطرق جديدة وأحياناً مخفية ومفاجئة وغير متوقعة. معظم التكنولوجيا التي تهدد حريتنا وكرامتنا
في المستقبل القريب يجري تطويرها من قبل شركات تعمل في مجال التقاط وبيع
بياناتنا وانتباهنا لأصحاب الإعلانات وغيرهم: "فيسبوك"، "جوجل"، "أمازون"، "علي بابا"، "تينسنت". لقد قام الذكاء الاصطناعي بدعم عملهم أيضاً وقد يبدو أن الذكاء الاصطناعي بمثابة الخطوة التقنية التالية
بعد الإعلانات على الإنترنت. إنه ليس كذلك. إنه قفزة في المجال كاملاً إنه عالمٌ كاملٌ مختلف، ويحمل إمكانات عظيمة. باستطاعته تسريع فهمنا للعديد
من مجالات الدراسة والبحث. لكنني سأعيد صياغة ما قاله فيلسوف
هوليوودي شهير، "مع الإمكانات غير العادية تأتي
مخاطر غير عادية." دعونا الآن ننظر إلى حقيقة أساسية
في حياتنا الرقمية، الإعلانات على الإنترنت. صحيح؟ نحن نقوم بتجاهلهم نوعاً ما. تبدو مزعجة جداً وعديمة الفائدة. جميعنا مررنا بتجربة أن تتم ملاحقتنا
على شبكة الويب بواسطة إعلان بناءً على شيء
قمنا بالبحث عنه أو قراءته تبحثون مثلاً عن زوج من الأحذية. ولمدة أسبوع، هذه الأحذية تقوم
باللحاق بكم أينما ذهبتم. حتى بعد ما تخضعون وتشترونهم،
لا يزالون يلحقون بكم. نحن متعودون نوعاً ما على ذلك النوع
من التلاعب الرخيص. ننظر بامتعاض ونفكر
"أتعلم ماذا؟ هذه الأشياء لا تعمل." عدا أنه على الإنترنت، التقنيات الرقمية ليس مجرد إعلانات فقط. لنفهم ذلك، دعونا نفكر بمثال
من العالم المحسوس. تعرفون كيف عند عدادات الدفع
في المتاجر قرب الكاشيير، هناك حلوى وعلكة على مستوى نظر الأطفال؟ هذا مصمم ليجعلهم يلحّوا على أهاليهم في نفس الوقت حيث يقومون بإظهار
المشتريات للدفع. إن هذا يدعى هندسة الإقناع. إنه ليس لطيفاً، لكنه يعمل نوعاً ما. لهذا السبب ترونه في كل متجر. الآن، في العالم المحسوس، هندسات الإقناع كهذه محدودة نوعاً ما، لأنك تستطيع أن تضع فقط العديد
من الأشياء عند الكاشيير، صحيح؟ والحلوى والعلكة هي نفسها للجميع، حتى ولو كانت غالباً تنجح فقط بالنسبة للناس الذين معهم أطفال
صغار ملحّون إلى جانبهم. في العالم المحسوس، نحن نعيش مع هذه الحدود. لكن في العالم الرقمي، فهندسات الإقناع يمكن أن تُبنى
على مستوى المليارات ويمكنهم أن يستهدفوا ويستنتجوا ويفهموا وينتشروا أمام الأفراد واحداً واحداً باستنتاج نقاط ضعفك، ويمكن أن يتم إرسالهم إلى شاشة الهاتف
الخاصة بأي أحد، إذاً فهي ليست مرئية لنا. وهذا مختلف. وهذا فقط واحد من الأمور البسيطة
التي يستطيع الذكاء الاصطناعي أن يفعلها. والآن دعونا نأخذ مثالاً. فلنقل أنك تريد أن تبيع تذاكر
طيران إلى "فيجاس"، حسناً؟ في العالم القديم، يمكنك أن تفكر
ببعض المناطق لتستهدفها بناء على الخبرة وما يمكنك أن تخمنه. قد تحاول الإعلان لـ… رجال بين أعمار الـ25 والـ35 أو أشخاص عندهم حد مرتفع للدَّين
في بطاقتهم الائتمانية، أو أزواج متقاعدين. صحيح؟ هذا ما كنتَ لتفعله في الماضي. بوجود البيانات الضخمة وتعلّم الآلة، لم يعد الأمر يعمل بهذا الشكل. لذا لنتخيل ذلك… فكروا في كل البيانات التي يمتلكها
"فيسبوك" عنك: كل حالة قمت بكتابتها في حياتك، كل محادثة في "مسنجر"، كل مكان سجلت دخولك منه، جميع صورك التي قمت برفعها من ذلك المكان. إذا بدأت بكتابة شيء ثم غيرت رأيك وحذفته، فإن "فيسبوك" يحتفظ بهذه ويحللها أيضاً. بشكل متزايد، فهو يحاول أن يطابق بينك
وبين بياناتك خارج الإنترنت. ويقوم أيضاً بشراء الكثير من البيانات
من سماسرة البيانات. قد يتضمن ذلك كل شيء
ابتداءً من سجلاتك المالية لكم لا بأس فيه من تاريخ تصفحك. صحيح؟ في الولايات المتحدة،
بيانات كهذه يتم جمعها بشكل روتيني، وتُجمع وتُباع. في "أوروبا" عندهم قوانين أكثر شدة. إذاً ما يحدث عندها هو بمزج جميع البيانات، خوارزميات
تعلم الآلة هذه… لهذا السبب تسمى خوارزميات تعلم… إنها تتعلم كيف تفهم مميزات وصفات الناس الذين اشتروا تذاكر إلى "فيجاس" من قبل. عندما يقوموا بتعلم هذا من بيانات متوفرة، يتعلمون أيضاً كيف يقومون بتطبيق
ذلك على الناس الجدد حيث أنهم إذا واجهوا شخصاً جديداً، يمكنهم أن يقرروا هل من المحتمل أن يشتري
ذلك الشخص تذكرة إلى "فيجاس" أم لا. حسناً. أنتم تقولون إنه عرض لشراء
تذكرة إلى "فيجاس". يمكنني أن أتجاهل ذلك. لكن ليست هذه هي المشكلة. المشكلة هي… نحن لم نعد نفهم حقاً كيف تعمل
هذه الخوارزميات المعقدة. نحن لا نفهم كيف يقومون بهذا التصنيف. إنها مصفوفات عملاقة، آلاف الصفوف والأعمدة بل ربما ملايين الصفوف والأعمدة، ولا المبرمجين ولا أي أحد ممن ينظر إليها، حتى لو توفرت لديك البيانات كلها، يفهم كيف تعمل بالضبط بعد الآن، لن تفهموا أكثر مما ستعرفونه عما أفكر الآن إذا رأيتم مقطعًا عرضيًّا من دماغي. الأمر كما لو أننا لم نعد نبرمج بعد الآن، بل نقوم بتنمية ذكاء نحن لا نفهمه حق الفهم. وهذه الأشياء تعمل فقط إذا كان هناك
كم هائل من البيانات، إذاً هي تقوم أيضاً بتحريض مراقبة
عميقة علينا جميعاً حيث تستطيع خوارزميات تعلّم الآلة أن تعمل. لهذا السبب يريد "فيسبوك" أن يجمع
كل البيانات التي يستطيع جمعها عنك فالخوارزميات تعمل بشكل أفضل. دعونا ننسى مثال "فيجاس" لحظة. ماذا لو كان النظام الذي لا نفهمه يقرر أنه من الأسهل أن يبيع تذاكر "فيجاس" للناس المصابين بثنائية القطب
وهم على وشك الدخول بمرحلة الجنون. أناس كهؤلاء غالباً يكونون مسرفين
في الإنفاق أو مقامرين مدمنين… الخوارزميات قد تفعل ذلك، وأنت لا تملك
أدنى فكرة أن هذا ما كانوا يقومون بتصنيفه. لقد أعطيت هذا المثال لمجموعة
من علماء الحاسوب ذات مرة. وبعد ذلك، جاء إلي واحدٌ منهم. لقد كان مضطرباً وقال :
"لهذا السبب لم أستطع نشرها." أنا قلت: "لم تستطع نشر ماذا؟" لقد حاول أن يرى فيما إذا كنت ستستطيع
استشفاف بداية مس الجنون من منشورات مواقع التواصل قبل بداية
الأعراض المرضية، ولقد نجح ذلك، بل نجح بشكل ممتاز، وهو لم يكن لديه أي فكرة كيف نجح البرنامج
أو ما المعلومات التي كان يجمعها. الآن، المشكلة لا تُحل إذا لم
يقم بنشر المنشور، لأنه مسبقاً هناك شركات تقوم بتطوير هذا النوع من التقنية، والكثير من ما ينتجونه مأخوذ
من الموارد الموجودة ببساطة. هذا لم يعد شديد الصعوبة بعد الآن. هل جربتم من قبل أن تدخلون "يوتيوب"
بنيّة مشاهدة فيديو واحد وبعد ساعة تكونون قد شاهدتم 27 فيديو؟ تعرفون ذلك العمود على اليمين في "يوتيوب" الذي اسمه "سيُعرض تالياً" ويقوم بتشغيل شيء ما تلقائياً؟ إنها خوارزمية تلتقط ما تظن هي أنك قد تكون مهتماً به وما قد لا تجده لوحدك. هذا ليس بفعل إنسان. إنه ما تفعله الخوارزميات. إنها تلتقط الأشياء التي قمت بمشاهدتها
والأشياء التي قام أناس مثلك بمشاهدتها، وتستنتج أن ذلك لا بد أن يكون
ما أنت مهتم به، وما تريد المزيد منه، ثم يعرض عليك المزيد فحسب. إنها تبدو ميزة حميدة ومفيدة، إلا عندما تكون غير ذلك. ففي عام 2016 حضرت مسيرات
للمرشح حينها "دونالد ترمب" لأقوم كعالمة بدراسة الحركة الداعمة له. أنا أدرس الحركات الاجتماعية،
لذا كنت أدرس ذلك أيضاً. وبعدها أردت أن أكتب شيئاً
عن واحدة من تلك المسيرات، فقمت بمشاهدتها بعض المرات على "يوتيوب". فبدأ "يوتيوب" بترشيح فيديوهات لي ويشغل لي تلقائياً فيديوهات
عن العنصريين البيض في ترتيب متصاعد من التطرف. إذا شاهدت واحداً، سينقلني حتى إلى فيديو أكثر تطرفاً ويقوم بتشغيله تلقائياً أيضاً. إذا شاهدتم محتوى خاص بـ"هيلارس كلينتون"
أو "بيرني ساندرز"، سيقوم "يوتيوب" بترشيح وتشغيل فيديوهات
عن اليساريين المتآمرين، وسوف ينحدر من تلك النقطة. حسناً، ربما تظنون أن هذا يتعلق
بالسياسة، لكنه ليس كذلك. هذا لا يتعلق بالسياسة. هذه ببساطة فقط الخوارزمية
وهي تستنتج السلوك الإنساني. مرةً شاهدت فيديو عن النظرية النباتية
على "يوتيوب". فقام "يوتيوب" بترشيح وتشغيل فيديو
عن كون المرء نباتياَ. كما لو أنك لن تكون أبداً شديداً
بما يكفي بالنسبة لـ"يوتيوب". (ضحك) إذاً ما الذي يحدث؟ إن خوارزمية يوتيوب امتلاكية، لكن إليكم ما أظن أنه يحدث. لقد اكتشفت الخوارزمية أنك إذا استطعت أن تجذب الناس لمظنّة أنك تستطيع أن تريهم
ما هو أكثر إثارة فإنهم أكثر احتمالاً أن يبقون على الموقع يشاهدون فيديو تلو الآخر ويغرقون
في رحلة البحث والمشاهدة في حين "جوجل" يقدم لهم الإعلانات. الآن، بعدم وجود أي أحد يأبه إلى
أخلاقيات المتجر، هذه المواقع يمكنها أن تأخذ
معلومات عن الناس الذين يكرهون اليهود، الذين يظنون أن اليهود عبارة عن طفيليات والذين لديهم محتوى معادٍ للسامية
بصراحة شديدة، ويجعلونك تستهدفهم بالإعلانات. يمكنهم أيضاً أن يحشدوا الخوارزميات ليجدوا لك جماهير تشبهك، أناس لا يملكون محتوى معادٍ للسامية
بشكل صريح على ملفاتهم لكنهم ممن تكشفهم الخوارزمية على أنهم
سريعو التأثر برسائل كهذه، وتجعلك تستهدفهم بالإعلانات أيضاً. قد يبدو هذا مثالاً غير قابل للتصديق، لكنه حقيقي. "بروببليكا" حققت بهذا الشأن ووجدت أنك بالفعل تستطيع
فعل ذلك على "فيسبوك"، وقد قام "فيسبوك" بعرض اقتراحات عن كيفية توسيع ذلك الجمهور قام موقع "باز فيد" بتجربة ذلك
من أجل "جوجل"، وقد وجدوا بسرعة، أجل، يمكنك فعلها على "جوجل" أيضاً. ولم تكن تجربة مكلفة حتى. شركة "بروببليكا" أنفقت ما يقارب 30 دولار لتستهدف هذه الفئة. في السنة الماضية، أفصح مدير حسابات مواقع
التواصل الخاص بـ"دونالد ترمب" أنهم كانوا يستخدمون المنشورات الظلامية
في "فيسبوك" لتسريح الناس من وظائفها، ليس عن طريق إقناعهم بذلك، بل بإقناعهم أن لا يقوموا بالتصويت
من الأساس. ولفعل ذلك، قاموا على وجه التحديد باستهداف، على سبيل المثال، رجال أمريكيين إفريقيين
في مدن رئيسة مثل "فيلادلفيا"، وسوف أقرأ ما قاله هو بالضبط. أنا أقتبس. "كانوا يستخدمون منشورات ليست للعامة والتي تتحكم الحملة بمشاهديها حيث يشاهدها الناس الذين نريدهم
أن يشاهدونها فحسب. لقد قمنا بتصميم هذا. وسيؤثر ذلك بشكل كبير على قدرتها
على تجنيد هؤلاء الناس." ماذا يوجد في هذه "المنشورات الظلامية"؟ ليس عندنا أي فكرة. "فيسبوك" لن يخبرنا. إذاً "فيسبوك" أيضاً يقوم خوارزمياً
بترتيب المنشورات التي يضعها أصدقاؤك على "فيسبوك"،
أو الصفحات التي تقوم بمتابعتها. فهو لا يريك كل شيء بالترتيب الزمني. بل يصمم الترتيب بالطريقة التي تظن بها
الخوارزميات أنها ستجذبك. لتبقى على الموقع لفترة أطول. إذاً لهذا الكثير من العواقب. ربما تظن أن أحداً ما يقوم بتجاهلك
على "فيسبوك" لكن ربما الخوارزمية لا تقوم أبداً بإظهار
منشوراتك لهم. تقوم الخوارزمية بإعطاء الأولوية
لبعضهم وبدفن ما تبقى. تظهر التجارب أن ما تختار أن تظهره لك الخوارزميات
يمكن أن يؤثر على عواطفك. لكن هذا ليس كل مافي الأمر. بل إنها تؤثر أيضاً على السلوك السياسي. في عام 2010، في انتخابات منتصف فترة الحكم، أجرى "فيسبوك" تجربة على 61 مليون شخص
في الولايات المتحدة. والتي كُشف عنها بعد ما ظهرت الحقيقة. حيث ظهر لبعض الناس
"اليوم هو يوم الانتخابات،" وهو الإعلان الأبسط، وبعض الناس ظهر لهم الإعلان
الذي يحتوي تلاعباً خفيفاً مع تلك الصور الصغيرة لأصدقائك الذين ضغطوا على
"أنا قمت بالتصويت." هذا التلاعب البسيط. حسناً؟ إذاً الصور كانت هي التغيير الوحيد، وذلك المنشور ظهر مرةً واحدة قام بحشد 340,000 مصوتين إضافيين في تلك الحملة الانتخابية، وفقاً لهذا البحث وكما تم تأكيده من قبل قوائم المصوتين. مجرد حظ؟ لا. لأنهم في عام 2012 أعادوا التجربة ذاتها. وتلك المرة، تلك الرسالة المدنية ظهرت مرة واحدة وقامت بحشد 270,000 مصوت إضافي. لأخذ العلم، الانتخابات الرئاسية
في أمريكا لعام 2016 شارك فيها حوالي 100,000 صوت. الآن، يستطيع "فيسبوك" أيضاً بسهولة تامة
أن يستنتج آراءك السياسية، حتى ولو لم تفصح عنها من قبل على الموقع. صحيح؟ هذه الخوارزميات يمكنها
فعل ذلك بسهولة تامة. ماذا لو قررت منصة بذلك النوع من القوة أن تجند الداعمين لأحد المرشحين
ضد المرشح الآخر؟ كيف سنعرف حتى أن هذا ما قد حدث؟ لقد بدأنا الحديث من مكان ما
لا يظهر أنه مؤذي… إعلانات على الانترنت تتبعنا أينما ذهبنا… ثم وصلنا إلى مكان آخر. بصفتنا الشعب وبصفتنا المواطنون، نحن لم نعد نعرف إذا كنا نرى جميعاً
المعلومات نفسها أو ماذا يرى أي أحد آخر، ومن دون أساسيات عامة من المعلومات، شيئاً فشيئاً، المناظرة العامة تصبح مستحيلة، ونحن لسنا إلا في المراحل الأولى لذلك. هذه الخوارزميات تستطيع بسهولة تامة
أن تستنتج أموراً مثل الأصل العرقي للناس، آراء سياسية ودينية، والخصال السلوكية، الذكاء، السعادة، تعاطي المواد المدمنة، إنفصال الوالديَن، العمر والجنس، فقط من إعجابات "فيسبوك". هذه الخوارزميات يمكنها أن تتعرف
على المعارضين حتى ولو كانت وجوههم مخفية جزئياً. هذه الخوارزميات قد تكون قادرة
على اكتشاف الميول الجنسية للناس فقط من صورهم الشخصية على مواقع المواعدة. إن هذه تخمينات احتمالية، لذا فهي لن تكون صحيحة مئة بالمئة، لكنني لا أرى أصحاب السيطرة يقاومون
الإغراء لاستخدام هذه التقنيات فقط بسبب وجود بعض الإيجابيات المزيفة، والتي ستخلق بالطبع طبقة أخرى
كاملة من المشاكل. تصوروا ماذا تستطيع ولاية أن تفعله بالكم الهائل من البيانات التي تملكها
عن مواطنيها. إن "الصين" تقوم من الآن باستخدام
تقنية التحقق من الوجوه للتعرف على الناس واعتقالهم. وهنا تكمن المأساة: نحن نبني هذه البنية التحتية
من المراقبة الاستبدادية فقط لنحمل الناس على أن يضغطوا
على الإعلانات. وهذا لن يكون الاستبداد الذي تحدث
عنه "أورويل". نحن لسنا في رواية "1984". إذا كان الاستبداد يستخدم الخوف
العلني ليقوم بإرهابنا، سنكون جميعنا خائفين،
لكننا سنكون على معرفة بالأمر، سوف نكره ذلك وسنقوم بمقاومته. لكن لو كان الناس في السلطة يستخدمون
هذه الخوارزميات لتقوم بمراقبتنا في الخفاء، لتقوم بالحكم علينا والتحكم بنا، لتقوم بالتعرف على وبالتنبؤ بمفتعلي
المشاكل والمتمردين، لتقوم بنشر هندسة الإقناع على مستوى ضخم ولتتلاعب بالأفراد واحداً تلو الآخر باستخدام نقاط ضعفهم الشخصية
ومكامن هشاشتهم، وإذا كانوا يفعلون ذلك على مستوى ضخم عبر شاشاتنا الخاصة حيث لا نعلم حتى ماذا يرى جيراننا والمواطنون أمثالنا، فذلك الاستبداد سوف يحيط بنا كشبكة عنكبوت ونحن قد لا نعرف حتى أننا فيها. إذاً رسملة سوق "فيسبوك" تقترب من نصف تريليون دولار. هذا لأنها تعمل بشكل ممتاز كهندسة إقناع. لكن بنية هذه الهندسة هي ذاتها سواء كنت تشتري أحذية أو كنت تبيع السياسة. الخوارزميات لا تعرف الفرق. الخوارزميات نفسها التي يتم إطلاقها علينا لتجعلنا أكثر خضوعاً للإعلانات هي أيضاً التي تقوم بتنظيم تدفق معلوماتنا
السياسية والشخصية والاجتماعية، وهذا ما يجب أن يتم تغييره. والآن لا تسيئوا فهمي، نحن نستخدم المنصات الرقمية لأنها
تزودنا بفائدة كبيرة. أنا أستخدم "فيسبوك" لأبقى على تواصل
مع الأصدقاء والعائلة حول العالم. لقد كتبت عن مدى أهمية شبكات التواصل
الاجتماعي في حركاتنا الاجتماعية. لقد درست كيف يمكن أن تُستخدم هذه التقنيات للتحايل على الرقابة حول العالم. لكن الأمر ليس أن الناس الذين يديرون
الشركات مثل "فيسبوك" و"جوجل" يحاولون بشكل متعمد وضار أن يجعلوا من البلد أو العالم أكثر قطبيةً ويشجعون على التطرف. لقد قرأت التصاريح العديدة حسنة النية التي يدلي بها هؤلاء الناس. لكنها ليست النية أو التصريح الذي تخص الناس
في عالم التكنولوجيا هي ما يهم، بل الهياكل ونماذج العمل التي يبنونها. وهذا هو جوهر المشكلة. إما أن "فيسبوك" هو خدعة عملاقة
تزن نصف ترليون دولار والإعلانات لا تعمل على الموقع، وهي لا تعمل كهندسة إقناع، أو أن قوة التأثير لديه تشكل قلقاً كبيراً، إنه إما واحدة أو الأخرى، والأمر ينطبق على "جوجل" أيضاً. إذاً ما الذي يمكننا فعله؟ يجب أن يتغير هذا. وأنا لا يسعني أن أقدم وصفة بسيطة، لأننا مضطرون لإعادة هيكلة الطريقة التي تعمل بها تقنيتنا
الرقمية بكاملها. كل شيء ابتداءً من الطريقة التي
يتم فيها تطوير التقنية وصولاً إلى الطريقة حيث
المحفزات الاقتصادية وغيرها يتم بناؤها في النظام. يجب علينا أن نواجه ونحاول التعامل مع الفقر إلى الشفافية الذي تخلقه
الخوارزميات الامتلاكية، والتحدي الهيكلي في غموض تعلم الآلة، كل هذه البيانات التي يتم جمعها
عنا بشكل عشوائي. أمامنا مهمة كبيرة علينا القيام بها. يجب علينا أن نحشد تقنيتنا، وإبداعنا، وأجل، سياستنا حيث يمكننا أن نبني ذكاءً اصطناعياً يقوم بدعمنا في أهدافنا البشرية لكنه أيضاً مقيّد بقيمنا الإنسانية. وأنا أفهم أن هذا لن يكون سهلاً. نحن قد لا نتفق بسهولة حتى على
ما تعنيه هذه المصطلحات. لكننا لو أخذنا بجدية كيف تعمل هذه الأنظمة التي نعتمد عليها بشدة فأنا لا أرى كيف يسعنا أن نؤجل
هذه المحادثة أكثر من ذلك. هذه الهياكل تقوم بتنظيم كيف نعمل وهي تتحكم بما يمكننا وما لا يمكننا فعله. والعديد من هذه المنصات التي تكسب
ربحها بالإعلانات، تتباهي بأنها مجانية. في هذا السياق، هذا يعني أننا
نحن المنتج الذي يتم بيعه. نحن نحتاج اقتصاداً رقمياً حيث بياناتنا وانتباهنا ليست للبيع من أجل أكثر من يدفع
من الاستبداديين أو الدهماويين. (تصفيق) لذا دعونا نعد إلى تلك العبارة الهوليوودية
التي أعدت صياغتها، نحن نريد بالفعل الإمكانات غير العادية للذكاء الاصطناعي والتقنية الرقمية
أن تزدهر، لكن من أجل ذلك، يجب أن نواجه
هذا التهديد غير العادي، بعيون مفتوحة والآن. شكراً لكم. (تصفيق)

23 thoughts on “We're building a dystopia just to make people click on ads | Zeynep Tufekci

  • The root of it all is capitalism. The warnings against capitalism have been around for years, we are now beginning to reap the fruits of our labour.

  • In one way this is good algorithms show us that TV media is fake. Anyway whats my next video to watch I have all day to do nothing.

  • Wow! It was just truly an amazing talk to the point and surely took one to think and act bit differently before it's too late……!!!

  • The interests that control media of all sorts across the world are intent on dividing us, on creating more and more factions of identity and thought. They want these factions kept in rarified environments (safe spaces if you will) so that they can increase their group identity and increase their fear of contradictory thought. A tower of Babel only created with opinions and identity not by different tongues. BIG BROTHER IS ISOLATING AND DIVIDING YOU

  • the algorithms are subtly manipulating society down to the individual level. for all we know they populate the comment sections with bots as well. in a sense it is skynet and it's already become aware… and it is smart enough to hide itself from us and turn us on each other. and we are too dumb to understand what it wants or where it's leading us

  • There is no changing the current systems. The fix here is to start building acceptable alternative systems that level the plain field and at some point make it illegal to visit facebook and google. But with these companies huge budgets lobbying against how can we accomplish this?

  • Big Data’s solution to the AI dystopia they’re creating is censorship. Posts and entire accounts and channels are being deleted if they’re not marching in lockstep with “acceptable” thoughts.

  • As developed country, US needs to educate their citizen as much as some european countries do. The govt owe them.

  • Every gen x and older gen needs to know this, excellent explanation on the scale of digital marketing and big data, it is not just ads placement anymore, views and all that, pls start measure the impact.

  • What if the algorithm was so smart it could sway national elections in order to create a psychological environment that would be financially profitable to the companies? Are the algorithms smart enough to know that if they were to get a certain group to vote and another not too that profits would go up in the future? She said in the talk that they already know what can get you motivated or not but are they smart enough to know who to motivate in the interest of the companies?

  • I think just feeling and emitting emotions near a silicone wafer cpu chip is somehow being quantified with its slight detectable frequency brainnwave changes in the air and determining what gets shown as a video, but to reveal technology was capable of all that would cause massive class action lawsuits in privacy violations.

  • years ago the internet was just information. There were hardly any ads. When search engines came along suddenly we didn't need advertising any more. We could search for what we needed and chose the company that were closest/had what we needed/could delivery etc. It was far superior to tv advertising and phone directories. We could successfully contact the companies we needed directly, which was amazing. Now companies compete for top spaces in search engines, pay advertising – force unruly ads on us, ruining the user experience and falsifying the whole customer/business relationship. I honestly do not think we need advertising at all. People always need products and services as much as we need to sell them. Business won't stop without ads. In fact, I think they might even thrive.

Leave a Reply

Your email address will not be published. Required fields are marked *