مدیر اجرایی فیس بوک می گوید الگوریتم ها از کاربران در برابر “سخنان نفرت انگیز” محافظت می کنند


الگوریتم های بحث برانگیز فیس بوک از کاربران خود در برابر قرار گرفتن در معرض محتوای شدید ، سخنان نفرت انگیز و اطلاعات نادرست محافظت می کند.

نیک کلگ از فیس بوک در برابر ادعاهای افشاگر فرانسیس هاوگن دفاع کرد که الگوریتم های آن باعث ایجاد محتوای تقلبی و محتوای شدید می شود – اما تاکید کرد که این شرکت هرگز نمی تواند اطلاعات غلط و سخنان نفرت را به طور کامل از سیستم عامل خود حذف کند.

کلگ به دانا باش در گفتگوی CNN State of the Union گفت: “اگر الگوریتم ها را حذف کنید … اولین چیزی که اتفاق می افتد این است که مردم بیشتر ، نه کمتر ، سخنان نفرت انگیز – بیشتر ، و نه اطلاعات غلط” را ببینند. “این الگوریتم ها دقیقاً طوری طراحی شده اند که تقریباً مانند فیلترهای بزرگ هرزنامه برای شناسایی و حذف محتوای بد عمل می کنند.”

او گفت: “به ازای هر ده هزار بیت محتوا ، شما فقط پنج بیت از اوج نفرت را مشاهده می کنید.” “ای کاش می توانستیم آن را به صفر برسانیم. ما یک سوم جمعیت جهان را در سیستم عامل های خود داریم. البته ما خوب ، بد و زشت طبیعت بشر را در سکوهای خود می بینیم. “

کلگ به باش اصرار داشت که الگوریتم های فیس بوک در پیشبرد شورش Capitol در 6 ژانویه نقش خاصی ایفا نکرده است ، وی در “Meet The Press” شبکه NBC به چاک تاد گفت که ادعای هاوگن فیس بوک اقدامات برای کاهش کاربر را لغو کرده است. اخبار پس از انتخابات ریاست جمهوری 2020 “به سادگی درست نبود”.

کلگ به تاد گفت: “ما در واقع اکثریت قریب به اتفاق آنها را تا زمان افتتاح نگه داشتیم و برخی را برای همیشه در محل خود نگه داشتیم.”

او گفت که این شرکت “ابزارهای ساده” – مانند کاهش تیراژ ویدئوها ، فرصتهای مشارکت مدنی و تبلیغات سیاسی – را که ناخواسته “بسیاری از محتوای لذت بخش قانونی قانونی و بازیگوش قانونی کاملاً بی گناه را جمع آوری کرده است” پس زد.

نیک کلگ ، نایب رئیس فیس بوک در امور سیاست و امور جهانی.
نیک کلگ ، مدیر اجرایی فیس بوک رد می کند که شورش های 6 ژانویه در کنگره توسط الگوریتم های این پلتفرم تقویت شده است.
خبرگزاری فرانسه از طریق گتی ایماژ
تصویری از لوگوی فیس بوک با افراد روی لپ تاپ خود.
فیس بوک همچنین به دلیل عدم رعایت اعتدال در کارتل های مواد مخدر ، قاچاقچیان انسان و کودکان پدوفیل مورد بررسی قرار گرفته است.
REUTERS

کلگ گفت: “ما این کار را بسیار استثنایی انجام دادیم.” “ما فقط اجازه می دهیم محتوای کاملاً عادی فقط کمتر روی پلت فرم ما پخش شود. این کاری است که ما به دلیل شرایط استثنایی انجام دادیم. “

کلگ به تاد گفت که وظیفه کنگره “ایجاد تنظیم کننده دیجیتال” و تعیین قوانین برای حفظ حریم خصوصی داده ها و تعدیل محتوا است.

وی گفت: “من فکر نمی کنم کسی بخواهد یک شرکت خصوصی در مورد این معاملات بسیار دشوار بین ، از جمله ، آزادی بیان از یک سو ، و تعدیل یا حذف محتوا از سوی دیگر ، قضاوت کند.” وی گفت: “اختلاف نظر اساسی سیاسی وجود دارد. راست فکر می کند که ما بیش از حد محتوا را سانسور می کنیم ، و چپ فکر می کند که ما به اندازه کافی حذف نمی کنیم. “

نیک کلگ ، نایب رئیس فیس بوک در امور سیاست و امور جهانی.
نیک کلگ ، مدیر فیس بوک استدلال می کند که “فرصت های مشارکت مدنی و تبلیغات سیاسی” به شهرت شرکت لطمه زده است.
dpa/اتحاد تصویر از طریق Getty I

کلگ به جورج استفانوپولوس از ABC گفت: “بسیار گمراه کننده است” مقایسه اطلاعات گزارش شده توسط فیس بوک در مورد ضرر محصولات و محصولات آن توسط کودکان و جامعه از آگاهی شرکت های دخانیات از خطر سیگار.

او می گوید: “در دهه های 80 و 90 قیاس هایی وجود داشت که تماشای بیش از حد تلویزیون شبیه به اعتیاد به الکل بود یا بازی های بازی مانند Pac Man مانند سوء مصرف مواد مخدر بود.” “ما نمی توانیم طبیعت انسان را تغییر دهیم. شما همیشه چیزهای بدی را در اینترنت خواهید دید. “

دیدگاهتان را بنویسید