پنجشنبه ۶ دی ۱۴۰۳ , 26 Dec 2024
جالب است ۰
بزرگ داده‌ها شهرها را هوشمندتر و کارآمدتر می‌کنند
بزرگ داده‌ها می‌توانند برای کمک به توسعه شهرها، بینش باارزشی به ما ارائه دهند؛ اما به هر حال در این راه نقص‌هایی هم وجود دارد. چون همه داده‌‌ها به طور مساوی ایجاد یا حتی جمع‌آوری نمی‌شوند، در مجموعه بزرگ داده‌ها «مشکلات سیگنالی» وجود دارد.
 
یعنی حوزه‌های تاریکی که برخی شهروندان و جوامع در آنها نادیده گرفته شده‌اند. بنابراین رویکردهای مربوط به بزرگ داده‌ها برای برنامه‌ریزی شهری کاملا وابسته به این است که مقامات شهری هم داده‌ها را بشناسند و هم محدودیت‌‌های آن را. 

به گزارش افتانا (پایگاه خبری امنیت فناوری اطلاعات)، به عنوان مثال، «اپلیکیشن استریت بامپ» شهر بوستون، که از طریق گوشی‌های هوشمند رانندگانی که در دست‌انداز می‌افتند، داده‌هایی را جمع‌آوری می‌کند، روش مناسبی برای گردآوری اطلاعات با هزینه کم است و اپلیکیشن‌های بیشتری مشابه این اپلیکیشن در حال ظهورند.
 
اما اگر مقامات شهری بخواهند تنها بر داده‌هایی متمرکز شوند که از گوشی‌های هوشمند شهروندان به دست می‌آید، اطلاعات به دست آمده محدود به یک نمونه انتخابی خواهد بود. در این مثال، یعنی طبیعتا از افراد مسن و افرادی که تمکن مالی کمتری دارند و کمتر از گوشی‌های هوشمند استفاده می‌کنند، داده‌های کمتری به دست خواهد آمد. 

مقامات بوستون تلاشی جمعی برای رسیدگی به این اختلافات داده ای احتمالی انجام داده‌اند تا جلوی تخصیص اشتباه منابع را که عامل افزایش نابرابری‌های اجتماعی است، بگیرند. به عنوان مثال، می‌توان سرویس اینترنتی گوگل فلو ترندز (Google Flue Trends) را در نظر گرفت که ارزیابی‌های به‌روزی را از فعالیت‌های مربوط به آنفلوآنزا برای بیش از ۲۵ کشور فراهم می‌کند. 

محاسبات اشتباه این سرویس در سال ۲۰۱۲ اثر اتکا بر داده‌های اشتباه بر خدمات عمومی و سیاست عمومی را به تصویر می‌کشد. در سال ۲۰۱۲ این سرویس نرخ سالانه ابتلا به آنفلوآنزا را به میزان قابل توجهی زیاد برآورد کرده بود.
این موضوع در مورد وب سایت‌های «دولت شفاف» در آمریکا که هدف آن شفافیت اقدامات دولت است و داده‌هایی را در مورد بخش‌های دولتی به صورت آنلاین، منتشر می‌کنند، صدق می‌کند.
 
وجود داده‌های بیشتر، لزوما عملکرد دولت مانند شفافیت یا مسوولیت پذیری را توسعه نمی‌دهد، مگر اینکه صرف نظر از کمک به توانایی دولت برای تفسیر داده‌ها، مکانیزم‌هایی برای ایجاد ارتباط بین عامه مردم و نهادها وجود داشته باشد.
انجام هیچ یک از کارهایی که ذکر شد، آسان نیست. 

در حقیقت، هنوز تعداد متخصصین ماهر در امور داده‌ها زیاد نیست. دانشگاه‌ها در حال حاضر در تلاشند تا رشته‌هایی را در این زمینه تعریف کنند، برنامه درسی بنویسند و تقاضا ایجاد کنند.
گروه‌های حقوق بشر نیز به دنبال استفاده از بزرگ داده‌ها هستند تا درگیری‌ها و بحران‌ها را بهتر بشناسند؛ اما در اینجا هم سوالاتی در مورد کیفیت داده‌ها و تحلیل آنها وجود دارد. 

بنیاد مک‌آرتور اخیرا جایزه‌ای ۱۷۵ هزار دلاری به «مرکز حقوق بشر دانشگاه کارنیج ملون» اهدا کرده تا این مرکز بررسی کند تجزیه و تحلیل بزرگ داده‌ها چگونه یافته‌های مربوط به حقوق بشر را تغییر می‌دهند. جی آرونسون، رییس این مرکز، اشاره می‌کند که در مورد استفاده از داده‌ها و مسوولیت‌های دانشگاهیان و سازمان‌های حقوق بشر، پرسش‌های مهمی در حال ظهور است.
 در بسیاری از موارد مشخص نیست که آیا امنیت و سلامت افرادی که این وقایع را گزارش می‌کنند، تحت تاثیر این تکنولوژی‌های جدید افزایش می‌یابد یا مورد تهدید قرار می‌گیرد؟

بزرگ داده‌ها نباید بین گروه‌های اجتماعی تبعیض قائل شوند 

یکی دیگر از ویژگی‌های هدف منتسب به بزرگ داده‌ها این است که علیه گروه‌های اقلیت تبعیض کمتری وجود دارد، چون داده‌های خام تا حدی در برابر تمایلات اجتماعی مصون هستند و باعث می‌شوند تحلیل‌ها در حجم گسترده ای صورت بگیرند و بنابراین از تبعیض‌های گروهی جلوگیری می‌کنند. 

با این حال، بزرگ داده‌ها به طور دقیق به هدف «تفکیک افراد در گروه‌های مختلف» به کار گرفته می‌شوند، چون می‌توانند چگونگی رفتار متفاوت گروه‌ها را توضیح دهند. به عنوان مثال، تحقیقی که اخیرا انجام شده، اشاره می‌کند به اینکه دانشمندان چگونه اجازه می‌دهند فرضیاتشان در مورد مسائل نژادی، تحقیق ژئونومیک بزرگ داده‌ها را شکل دهد. 

آلیستایر کرول می‌نویسد، این احتمال که بزرگ داده‌ها برای اعمال تبعیض قیمت در کالاها مورد استفاده قرار بگیرند، نگرانی‌هایی را در مورد حقوق مدنی برمی‌انگیزد؛ موضوعی که از قدیم با عنوان «کشیدن خط قرمز» شناخته می‌شد. 

بزرگ داده‌ها تحت عنوان «شخصی سازی» می‌توانند برای منزوی کردن گروه‌های اجتماعی خاص و داشتن رفتار متفاوت با آنها مورد استفاده قرار بگیرند. مثلا شرکت‌ها می‌توانند آگهی اینترنتی برای تبلیغ یک کارت اعتباری را فقط به افرادی نشان دهند که درآمد خانوار بیشتری دارند یا سوابق اعتباری آنها در بانک‌ها بهتر است و بقیه افراد از اینکه چنین تبلیغی موجود است،‌کاملا ناآگاه باشند. 

شرکت گوگل حتی یک حق ثبت قیمتی دارد. به این صورت که اگر سابقه خرید قبلی شما نشان دهد که برای خرید کفش تمایل دارید پول بیشتری بپردازید، قیمت اولیه برای خرید آنلاین بعدی شما، بیشتر خواهد بود.
این روزها کارفرمایان تلاش می‌کنند از بزرگ داده‌ها برای مدیریت منابع انسانی استفاده کنند و بهره‌وری کارمندان خود را افزایش دهند. کارمندان هم از اینکه داده‌ها در مورد آنها چگونه جمع‌آوری یا استفاده می‌شود، هیچ اطلاعی ندارند. 

تبعیض می‌تواند دیگر ابعاد جمعیت شناختی را دربر بگیرد. به عنوان مثال، روزنامه نیویورک تایمز در گزارشی عنوان کرده بود که شرکت تارگت، خرده فروشی بزرگ آمریکایی، چند سال پیش گردآوری پروفایل‌های تحلیلی در مورد مشتریانش را آغاز کرده بود.
 
این شرکت اکنون داده‌های زیادی در مورد روند خرید مشتریان در دست دارد و مثلا بر‌اساس سوابق خرید یک زن حتی می‌تواند با اطمینان ۸۷ درصدی پیش بینی کند که چه زمانی او بچه دار می‌شود. در حالی که این موضوع می‌تواند بازاریابی تارگت را توسعه دهد، می‌توان تصور کرد از چنین تصمیماتی به گونه ای استفاده شود که در برابری اجتماعی تبعیض ایجاد کند. 

همچنین اخیرا تحقیق دانشگاه کمبریج در مورد بزرگ داده‌ها که ۵۸ هزار مورد «لایک» در فیس بوک را مورد بررسی قرار داده، برای پیش بینی اطلاعات شخصی بسیار حساس در مورد کابران، مانند گرایش‌های جنسی، قومیت، دیدگاه‌های مذهبی و سیاسی، ویژگی‌های شخصیتی، هوش، خوشحالی، استفاده از مواد مخدر، وضعیت تاهل، سن و جنسیت، مورد استفاده قرار گرفت. 

تام فورمسکی، روزنامه نگار، در مورد این مطلب می‌نویسد: دسترسی آسان کارفرمایان، صاحبخانه‌ها، آژانس‌‌های دولتی، موسسات آموزشی و سازمان‌های خصوصی به این اطلاعات حساس، می‌تواند به شیوه ای مورد استفاده قرار بگیرد که بین افراد تبعیض ایجاد کند و هیچ راهی برای مبارزه با آن وجود ندارد. 

در نهایت، اثر بزرگ داده‌ها در زمینه اجرای قانون را در نظر بگیرید. در بسیاری از ایالت‌های آمریکا، پلیس به مدل‌های «کنترل پیش گویانه» با استفاده از بزرگ داده‌ها روی آورده، به امید این که بتواند بسیاری از پرونده‌های پیچیده را حل کند و حتی از وقوع جرائمی در آینده جلوگیری کند.
 
اما از طرف دیگر، یکی از فرماندهان پلیس معتقد است: «اگرچه الگوریتم‌های کنترل پیش‌گویانه، دسته‌هایی مانند نژاد یا جنسیت را در نظر نمی‌گیرد، اما نتیجه عملی استفاده از چنین سیستم‌هایی بدون حساسیت نسبت به اثر تفاضلی آن می‌تواند دستورالعملی برای بدتر شدن روابط بین پلیس و جامعه، ایجاد تصور بی‌عدالتی، اتهام تبعیض نژادی و تهدیدی برای مشروعیت پلیس باشد.»
کد مطلب : 5598
https://aftana.ir/vdci.3awct1awvbc2t.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی