دسته‌ها
AI alan turing institute biometrics emotions EU g7 General Privacy News Governments olympics police russia Surveillance آنتی فیلتر برای ویندوز

با استفاده از "حرکات خرد" شخص برای احساسات

سیستم های نظارتی معمولاً از بیومتریک برای شناسایی جنبه های اصلی افراد استفاده می کنند. در پست قبلی وبلاگ ، استفاده از تشخیص راه رفتن ، بیومتریک رفتاری و حتی امضای قلب برای این منظور بحث شده بود. اما بدون شک ، تکنیک اصلی در اینجا تشخیص چهره است ، و این چندین بار در این وبلاگ مورد بحث قرار گرفته است. مشکلات مرتبط با این رویکرد اکنون به خوبی درک شده و خواستار تنظیم یا حتی ممنوعیت شناسایی چهره در حال افزایش است. یک جنبه خاص که بسیاری از افراد را نگران می کند استفاده از هوش مصنوعی برای تشخیص "بیان های خرد" است. پیش نویس آیین نامه هوش مصنوعی منتشر شده توسط کمیسیون اروپا ، سیستم های هوش مصنوعی را که توسط سازمان های اجرای قانون برای تشخیص وضعیت عاطفی فرد استفاده می شود ، "در معرض خطر" توصیف می کند. این بدان معنی است که استقرار آنها نیاز به کنترل های دقیق دارد. میکرو عبارات تنها راهی نیستند که سیستم های بیومتریک در مورد آنچه در سر مردم می گذرد تحلیل می کنند. سیستم دیگر VibraImage از شرکت Elsys در روسیه است. نحوه کار با توجه به این شرکت در اینجا آمده است:

فناوری VibraImage با ضبط یک تصویر از دوربین های دیجیتال ، وب یا تلویزیون استاندارد و پردازش تصویر ، میکرومیشن (میکرو حرکت ، لرزش) شخص را اندازه گیری می کند. ؛ تصویر. میکرو ویبره های سر انسان مربوط به بازتاب دهلیزی-عاطفی (VER) است و به وضعیت احساسی بستگی دارد. سیستم VibraImage احساسات انسان را تشخیص می دهد (با اندازه گیری حرکات گردن به صورت سه بعدی با استفاده از چندین تصویر ویدئویی). VibraImage سیستمی است که تمام احساسات انسان را تشخیص می دهد!

VibraImage نوع جدیدی از تصویر است ، مانند تصویر اصلی رنگ ، تصویر حرارتی یا اشعه ایکس اولیه است. هر نوع تصویر اطلاعات جدید و منحصر به فردی را در مورد شی ارائه می دهد. هر پیکسل VibraImage پارامترهای ارتعاش – فرکانس یا دامنه ارتعاش را نشان می دهد. یک تصویر تصویری از فرکانس و دامنه ارتعاشات ، VibraImage خارجی نامیده می شود و به نظر می رسد هاله ای انسانی است. رنگهای خارجی VibraImage (vibra-aura) با فرکانس ارتعاش و اندازه با دامنه ارتعاشات تعیین می شود.

اگرچه فناوری VibraImage از سال 2001 كمتر شناخته شده است و طبق گفته این شركت در "هزاران سیستم در سراسر جهان" استفاده می شود. شرکت السیس ادعا می کند که از سال 2007 ، VibraImage با موفقیت "جنایتکاران ، تروریست ها و رفتارهای مشکوک" را در دو فرودگاه روسیه کشف کرده است. مقاله ای در مورد مکالمه درباره VibraImage توسط جیمز رایت ، که یک محقق دانشیار در انستیتوی آلن تورینگ در انگلستان است ، اضافه می کند که VibraImage در چندین موقعیت برجسته از جمله دو بازی های المپیک ، یک جام جهانی ، FIFA و G7 مستقر شده است. اجلاس – همایش.

در ژاپن ، مشتریان این سیستم ها شامل یکی از پیشروترین ارائه دهندگان تشخیص چهره در جهان (NEC) ، یکی از بزرگترین شرکت های خدمات امنیتی (ALSOK) ، و همچنین فوجیتسو و توشیبا هستند. در کره جنوبی ، از جمله موارد دیگر ، به عنوان یک سیستم تشخیص دروغ بدون تماس برای بازجویی از پلیس در حال توسعه است. در چین ، قبلاً برای استفاده توسط پلیس برای شناسایی افراد مشکوک در فرودگاه ها ، گذرگاه های مرزی و جاهای دیگر رسماً مورد استفاده قرار گرفته است.

رایت خاطرنشان می کند که طرفداران این فن آوری ادعا می کنند که می توان از VibraImage برای تعیین نوع شخصیت ، به عنوان مثال برای شناسایی بیشتر نوجوانان استفاده کرد. احتمال ارتکاب جرم ، یا طبقه بندی انواع اطلاعات ، و حتی ایجاد وفاداری نسبت به یک تجارت یا کشور – یا فقدان آن. با این حال ، همانطور که رایت می گوید:

اثبات بسیاری از ادعاها در مورد تأثیرات آن غیرممکن به نظر می رسد. مقالات علمی کمی در مورد VibraImage در مجلات دانشگاهی با مراحل دقیق بررسی همکار منتشر شده است – و بسیاری از آنها توسط افرادی که به موفقیت این فناوری علاقه مند هستند نوشته شده است. این تحقیق غالباً مبتنی بر آزمایشاتی است که قبلاً موثر بودن VibraImage را تصور می کنند. اینکه دقیقاً چگونه حرکات خاصی از سر با حالات خاص روحی و روانی ارتباط دارند توضیح داده نمی شود. مطالعه ای از دانشگاه Kagawa در ژاپن نشان داد که تقریباً هیچ ارتباطی بین نتایج ارزیابی VibraImage و آزمایشات روانشناسی موجود وجود ندارد.

شخص ویبری مینكین ، VibraImage و بنیانگذار Elsys Corp ، پاسخی به انتقادات رایت نوشت. وی خاطرنشان کرد که VibraImage فناوری AI نیست ، بلکه مبتنی بر "اصول قابل فهم فیزیک ، سایبرنتیک و فیزیولوژی و معادلات شفاف برای محاسبه احساسات" است. این سوالی است که متخصصان در این زمینه ها به بهترین وجه با آن برخورد می کنند. آنچه بیشتر به این وبلاگ مربوط می شود ، مسائل مربوط به حریم خصوصی عمومی است که VibraImage مطرح می کند.

یکی اینکه می توان از آن استفاده کرد بدون اینکه افراد از آن آگاهی داشته باشند. این بدان معنی است که این سیستم دیگری است که می تواند برای نظارت پنهانی به کار گرفته شود. این مسئله به ویژه با توجه به ادعای VibraImage در یک دقیقه "تجزیه و تحلیل احساسی" ، که محاسبه سطح "روان رنجوری ، مهار ، خودتنظیمی ، انرژی ، جذابیت ، عقل سلیم ، سوicion ظن ، استرس ، اضطراب و فعالیت" شخص . تصور شرایط در مکانهای حساس مانند فرودگاهها که در آن مقامات ممکن است احساس کنند باید سریع عمل کنند بر اساس قرائتهایی که حاکی از سو someone ظن ، استرس و اضطراب در بین افراد است احساس راحتی می کنند. بعلاوه ، در بهترین زمانها ، شخصی که به طور مسالمت آمیز دستگیر می شود ، احتمالاً از واقعیت صرف دستگیری دچار استرس و اضطراب می شود. از این نظر ، تجزیه و تحلیل فن آوری خودكارآمد است.

همچنین دشوار است که ببینیم چگونه مردم می توانند ادعاهای VibraImage در مورد احساسات خود را رد کنند ، زیرا هیچ فناوری قابل مقایسه ای وجود ندارد که بتواند برای ارائه دیدگاه جایگزین به آنها متوسل شود. تا زمانی که تحقیقات بیشتری در مورد قابلیت اطمینان رویکردها با استفاده از خوانش های بیومتریک در مقیاس کوچک برای ادعای عمده در مورد خصوصی ترین حالت درونی فرد انجام نشده است ، این فن آوری شخص باید قطعاً در گروه "پرخطر" باشد.

ویژه. تصویر tantemasako.

 سرویس VPN "title =" سرویس VPN "/>

</pre>
</pre>
<p><a href= Privacy News Online by Private Internet Access VPN

دسته‌ها
AI deepfakes General Privacy News images inpainting markpainting photoshop Social Media آنتی فیلتر برای ویندوز

نحوه مبارزه با تصاویر فریبنده دستکاری شده با هوش مصنوعی با کمی هوش دیجیتالی

 palette paint

یکی از راه های در نظر گرفتن حریم خصوصی ، کنترل داده های شخصی است. این به معنای جلوگیری از دسترسی دیگران به اطلاعات خصوصی موجود یا جمع آوری اطلاعات شخصی جدید است. و اجازه ایجاد اطلاعات نادرست در مورد شخص را نمی دهد. اولین مورد را می توان به عنوان حریم خصوصی "کلاسیک" دانست: اطمینان از اینکه اطلاعات شخصی فقط برای افراد یا شرکت هایی که اجازه چنین کاری را دارند قابل دسترسی است. جمع آوری داده های جدید شامل مواردی مانند تشخیص چهره است که به دولت ها یا مشاغل اجازه می دهد تا با ردیابی محل زندگی یا کاری که انجام می دهند ، اغلب اطلاعات ارزشمندی درباره شخص به دست آورند.

ایجاد اطلاعات شخصی جعلی ممکن است در گذشته در گذشته وجود داشته باشد شکل شایعات ، افترا و افترا ، اما امروزه به یک مسئله جدی تر تبدیل شده است ، زیرا رایانه ها تشخیص داده های شخصی جعلی و واقعی را دشوار می کند. شاید چشمگیرترین مثال ، کلاس جدید ویدیوهای عمیق جعلی است که با استفاده از هوش مصنوعی ، چهره شخص دیگری را روی ویدئوهای قبلی قرار می دهد. اینها هنوز نسبتاً خام هستند و اغلب با بازرسی مستقیم قابل مشاهده هستند.

با این حال ، این مورد برای تصاویر اصلاح شده رایانه ای که به پردازش بسیار کمتری نسبت به ویدئو نیاز دارند و در طول سالها تکنیک ها به طور قابل توجهی تکامل یافته اند ، وجود ندارد. یکی از انواع مهم تغییر به عنوان "رنگ آمیزی" شناخته می شود – این شامل پر کردن قسمت های از دست رفته یا برش خورده یک تصویر است. در ابتدا یک تکنیک آنالوگ بود که برای ترمیم رنگ های آسیب دیده استفاده می شد ، به عنوان مثال ، اکنون یک گزینه معمول برای برنامه هایی مانند فتوشاپ است. یکی از دلایلی که امروزه رنگ آمیزی دیجیتال بسیار خوب است ، استفاده گسترده از تکنیک های هوش مصنوعی مانند شبکه های عصبی مصنوعی است. این اجازه می دهد تا یک برنامه از قسمتهای دیگر تصویر برای پر کردن – یا جایگزینی – بخشهای خاص استفاده کند. به عنوان مثال ، اکنون حذف یک فرد خاص از عکس ، جایگزینی آن با پس زمینه مناسب ، نسبتاً آسان است.

این مسئله برای حریم خصوصی کاملاً مشکل ساز است ، زیرا معنای تصاویر بصری را به طرز چشمگیری تغییر می دهد – یا با حذف یا افزودن عناصر. دسترسی فوری تصاویر از طریق اینترنت در اینترنت ، جلوگیری از این نوع دستکاری ها را غیرممکن می کند. اما حداقل داشتن ابزاری مناسب برای کنترل آن در شرایط خاص – به عنوان مثال ، وقتی صحبت از عکس از وقایع مهم یا بالقوه حساس است – خوب است. مقاله جدید تکنیکی را توصیف می کند که از این نظر تا حدی محافظت می کند. در طول راه ، او نشان می دهد که چگونه تکنیک های هوش مصنوعی که معمولاً برای براندازی تصاویر به کار می رود ، می توانند خودشان برانداز شوند. در اینجا ایده اصلی آنچه محققان آن را "رنگ آمیزی" می نامند ، با قیاس با "رنگ آمیزی" است:

رنگ آمیزی یک کار پیچیده است ، با شبکه های عصبی آموزش دیده برای دستکاری تصاویر با اندازه دلخواه و با وصله های دلخواه. علاوه بر این ، ناخوشایندهای مدرن می توانند سوراخ های نامنظم را پر کنند. از آنجا که آنها سعی می کنند از نظر معنایی آگاهی داشته و انسجام محلی و جهانی را به نمایش بگذارند ، باید درک درستی از چشم انداز جهانی داشته باشند [that is, of the whole image]. این به نوبه خود باعث می شود تا آنها نه تنها به اطراف پچ ، بلکه کل تصویر وابسته باشند. تصور کنید که می خواهید یک سوراخ در اطراف چشم سنجاب نشان داده شده در شکل 4 نشان داده شود [shown in the paper]. در اینجا ، اطلاعات محلی (با رنگ صورتی نشان داده شده) نشان می دهد که باید با خز پر شود. در مقابل ، اطلاعات جمع (که به رنگ نارنجی نمایش داده می شود) باید به نقاش بگوید که تصویر دارای سنجاب در ژست خاص است و باید چشم در آنجا باشد. همانطور که در تصویر گرادیان در شکل 4 نشان داده شده است ، شیب ها هم بر روی ناحیه اطراف چشم و هم در بقیه تصویر تمرکز می کنند. این اعتماد به اطلاعات کل باعث می شود که رنگ آمیزی هم پیچیده باشد و هم قابل دستکاری باشد. لازم نیست نقاش مزاحمت خود را در اطراف قسمت وصله متمرکز کند اما می تواند آن را در سراسر تصویر پراکنده کند.

"اغتشاش" ذکر شده در اینجا داده های مخصوصی است که در اطراف تصویر توزیع می شود به گونه ای که سیستم هوش مصنوعی را فریب می دهد تا آن را به بخشی از وصله تبدیل کند ، حتی اگر اینگونه نباشد. در واقع هیچ کاری ندارد با قسمت گمشده انجام دهید. از آنجا که در اطراف تصویر پخش شده است ، باعث ایجاد تغییر عمده ای با چشم غیر مسلح نمی شود. این فقط به دلیل چگونگی اتکا برنامه دوم به داده های جمع آوری شده توسط برنامه inainting انتخاب می شود. این امکان را ایجاد می کند تا تغییرات غیر قابل مشاهده در تصویر ، به عنوان مثال با ایجاد یک علامت هشدار دهنده در تصویر ویرایش شده ، گزارش شود. حتی اگر تعدادی از تکنیک ها و برنامه های رنگ آمیزی به طور گسترده مورد استفاده قرار گیرد ، می توان از داده های آشفتگی یکسان برای همه آنها استفاده کرد تا عناصر اضافی تصویر ویرایش شده را تولید کند. این بدان معناست که یک تصویر واحد با اختلال در رنگ آمیزی در برابر اضافات یا حذف آشکار تولید شده توسط طیف وسیعی از ابزارهای نقاشی محافظت می شود.

محافظت از رنگ برای علامت گذاری اینگونه نیست. 39 ؛ کامل نیست. یافتن ابزارهای رنگ آمیزی با استفاده از تکنیک های جدید هوش مصنوعی ممکن است باشد که با اختلالات پنهان در تصویر گمراه نشوند. به همین ترتیب ، نوشتن یک ابزار تخصصی نیز امکان پذیر است. اما مشکل واقعی امروز این است که به لطف ابزارهای نرم افزاری که به طور گسترده در دسترس هستند ، انجام کار دستیابی به تصویر در تصویر تقریباً ساده و ساده شده است. حداقل ، روش پیشنهادی نقاشی با مارک برخی از مشکلات اولیه انجام چنین دستکاری های تصویری را برطرف می کند. این همچنین امیدواری می دهد که هر چقدر تکنیک های پیچیده هوش مصنوعی بدست آورند ، و هر چقدر تصاویر تغییر یافته آنها برای چشم انسان جذاب به نظر برسند ، روش هایی وجود دارد. هوش مصنوعی جبرانی که می تواند به فاش شدن کاربرد آنها کمک کند. این بدان معناست که مبارزه برای حفظ حریم خصوصی ، هر چقدر اوضاع تیره به نظر برسد ، ناامیدکننده نیست.

تصویر برجسته الکساندر لسنیتسکی.

 سرویس VPN "title =" سرویس VPN "/>

</pre>
</pre>
<p><a href= Privacy News Online by Private Internet Access VPN

دسته‌ها
AI Apple Facebook facial recognition Foreign Intelligence Surveillance Court iOS privacy labels mark zuckerberg Massachusetts Privacy News Online section 702 tim cook آنتی فیلتر برای ویندوز

حریم خصوصی اخبار آنلاین | بررسی هفتگی: 7 مه 2021

  اخبار حریم خصوصی آنلاین | مرور هفتگی: 7 مه 2021

ویژه: اخبار حریم خصوصی آنلاین – هفته 7 مه 2021

  ELIZA AI وقتی هوش مصنوعی شروع به هک کردن سیستم ها – و افراد می کند ، در حریم خصوصی چه اتفاقی می افتد؟

هوش مصنوعی (AI) در این وبلاگ در درجه اول به دلیل توانایی آن در غربال کردن اطلاعات وجود دارد – به عنوان مثال ، یافتن الگوهای داده یا مطابقت چهره ها. مقاله جدیدی از متخصص امنیت ، بروس اشنایر ، بررسی می کند که چگونه هوش مصنوعی تأثیر عمده ای در هک خواهد داشت. اشنایر می نویسد: «یکی از زمینه هایی که به خصوص برای سیستم های هوش مصنوعی مثمر ثمر به نظر می رسد ، تحقیقات در مورد آسیب پذیری است. خط به خط مرور کد نرم افزار دقیقاً همان نوع مشکل خسته کننده ای است که هوش مصنوعی در آن برتر است ، اگر فقط تشخیص آسیب پذیری باشد. "هنگامی که هوش مصنوعی بتواند آسیب پذیری های موجود در کد و سیستم های آنلاین را تشخیص دهد ، تهدید برای حفظ حریم خصوصی به طرز چشمگیری افزایش می یابد. در واقع ، سیستم های هوش مصنوعی می توانند به طور مداوم کل شبکه را اسکن کنند. یکی از مهمترین خصوصیات حریم خصوصی اپل به تازگی فعال شده است. شفافیت ردیابی برنامه به این معنی است که کاربران iOS 14 هنگامی که برنامه ای می خواهد آنها را در چندین وب سایت متعلق به شرکت های دیگر ردیابی کند یا اطلاعات را با کارگزاران داده به اشتراک بگذارد ، اعلانی دریافت می کنند. کاربران می توانند اجازه دهند برنامه ای برای ردیابی فعالیت از این طریق یا "از او بخواهید که آن را ردیابی نکند. فیس بوک ، یکی از بدترین مجرمان در مورد ردیابی افراد ، سعی کرد این جنبش را حمله به تبلیغات شخصی و در نتیجه حمله به مشاغل کوچک توصیف کند. درست است که تصمیم اپل به سختی نوع دوستی است. تیم کوک دریافت که حریم خصوصی یک مزیت رقابتی برای اپل است که می تواند از طریق سخت افزار و خدمات خود درآمد کسب کند. از طرف دیگر ، فیس بوک تقریباً کاملاً به تبلیغات وابسته است ، به همین دلیل است که با شدت با عملکرد اپل مخالف است و اختلاف بین کوک و زاکربرگ بسیار تلخ شده است.

  خرید دسترسی خصوصی به اینترنت VPN

اخبار حریم خصوصی بیشتر این هفته:

دادگاه نظارت بر اطلاعات خارجی بافر بخش 702 نظارت گسترده – یک بار دیگر

در این مرحله ، فقط خجالت آور است. دادگاه فدرال چنین احمقانه ای را از سوی یک متهم جنایی فقیر که به سالها زندان محکوم شده است ، نمی پذیرد. با این وجود FISC کاملاً آماده تأیید شکست های FBI و NSA و بی توجهی آشکار آژانس ها به تصمیمات سالانه خود است. پروتکل ها ذاتاً مشکل ساز هستند. این قانون فقط مستلزم آن است كه مقامات اطلاعاتی "منطقی باور كنند" كه "هدف" تحقیق در خارج از كشور بیگانه است – اینكه آیا آمریكایی وجود داشته باشد ، با مجموعه حقوق اساسی در طرف دیگر ارتباطات ، به مجموعه اولیه ربطی ندارد .

قوانین پیشگام ماساچوست برای استفاده پلیس از فناوری تشخیص چهره

یکی از اولین محدودیت های ایالتی در استفاده از تشخیص چهره توسط پلیس در ماساچوست به عنوان بخشی از لایحه گسترده اصلاحات پلیس تصویب شد.
یکی از اولین قدم های تنظیم این فناوری ، همه قبول ندارند که اولین قدم درست است. در حالی که اجرای قانون محلی فقط می تواند با RMV ، پلیس ایالتی و FBI قرارداد ببندد ، اما هیچ چیز مانع FBI یا پلیس برای انجام هر کاری برای جلوگیری از آنها نمی شود. دولت باید با یک شرکت خصوصی قرارداد ببندد ، که اجرای قانون محلی پس از آن دسترسی داشتن. توسط دسترسی خصوصی به اینترنت

حریم خصوصی اخبار آنلاین توسط دسترسی خصوصی به اینترنت ، معتبرترین سرویس VPN جهان ، برای شما به ارمغان می آورد.

  سرویس VPN "title =" سرویس VPN "/>


   </pre>
</pre>
<p><a href= Privacy News Online by Private Internet Access VPN

دسته‌ها
AI call centers empathy gig economy Privacy Programming workplace privacy آنتی فیلتر برای ویندوز

این جایی است که نظارت در محل کار منجر می شود: به سمت مدیریت الگوریتمی و خودکار

/>

چند سال پیش ، اخبار اخبار آنلاین در مورد نوع جدید نظارت ، که در محل کار اتفاق می افتد نوشت. هدف این سیستم ها در آن زمان توجه به کارگران بود و اغلب آنها برای تشخیص مشکلات طراحی می شدند. اما دو سال زمان طولانی در دنیای دیجیتال امروز است و اوضاع بسیار تغییر کرده است. به عنوان مثال ، در سال 2017 ، هوش مصنوعی (AI) قبلاً برای نظارت بر محیط کار اعمال شده بود ، اما تا حد زیادی برای کمک به تجزیه و تحلیل الگوهای کار و گزارش ناهنجاری ها بود. هوش مصنوعی امروز قادر تر و مداخله گرتر است. او دیگر راضی نیست که به صورت استعاری بنشیند و به سادگی تماشا کند که کارگران مشاغل خود را طی کنند. اکنون او شروع به کنترل فعال آنها می کند. یک گزارش داده و جامعه ، این را "مدیریت الگوریتمی" توصیف می کند:

[Its] ظهور در محل کار با خروج از ساختارهای مدیریت قبلی که بیشتر متکی بر ناظران انسانی به کارگران بودند ، مشخص شده است. . مدیریت الگوریتمی مقیاس کردن عملیات را با هماهنگی ، به عنوان مثال ، فعالیت های نیروی کار بزرگ جدا نشده یا با استفاده از داده ها برای بهینه سازی نتایج مطلوب ، مانند کاهش هزینه های کار ، امکان پذیر می کند.

این گزارش پنج عنصر اصلی مدیریت الگوریتمی را انتخاب می کند: "داده های پرکار جمع آوری و نظارت بر کارگران از طریق فناوری". پاسخگویی در زمان واقعی؛ تصمیم گیری خودکار یا نیمه خودکار؛ ارزیابی عملکرد انجام شده توسط سیستم های AI بر اساس اندازه گیری های نسبتاً ساده. و استفاده از "انگشت شست" و مجازات برای تأثیر رفتار کارگران.

گزارش داده و جامعه اشاره می کند که بسیاری از این خصوصیات ابتدا در شرکت هایی که در اقتصاد "گیگ" فعالیت می کنند – به عنوان مثال ، Uber. استفاده از نیروی کار روتینگ و توزیع شده نیاز به عملکرد این نوع "نظارت مستمر و ملایم" دارد. اما نکته جالب توجه ، راهی است که صنایع سنتی نیز از این رویکرد استفاده می کنند ، حتی اگر کاملاً لازم نباشد.

این توسط یک مقاله طولانی در The Verge نشان داده شده است ، که واقعیت مدیریت الگوریتمی را برای افرادی که باید تحت آن کار کنند ، نشان می دهد. این داستان ها شامل حال خدمتکاران هتل است که برای تمیز کردن اتاق ها به شیوه ای خواستارتر و زهکشی تر برای آنها ، از طریق نرم افزار کنترل می شوند ، اما در عین حال فواید کمی یا ناچیزی برای بازدید کنندگان هتل دارند. # 39؛ هتل. با کمال تعجب ، آمازون از وسواس کارایی برخوردار است. نه تنها فرسودگی مدیریت الگوریتمی بی امان باعث می شود بلکه ضایعه بالایی نیز در بین کارگران ایجاد کند. شاید ساده ترین کار برای نظارت و مدیریت الگوریتمی نوشتن کد باشد. هر مکث کلید را می توان ضبط کرد ، هر مکث ذکر شد و از وب کم رایانه می توان در هنگام کار ، نظارت ویدیویی از برنامه نویس را انجام داد. در اینجا تجربه مارک رونی ، مهندس نرم افزار در داکا ، بنگلادش ، با استفاده از WorkSmart "ابزار اندازه گیری بهره وری" ، همانطور که در مقاله The Verge شرح داده شده است:

نرم افزار برای ارزیابی میزان بهره وری از کلید ، کلیک ماوس و برنامه های کاربردی آن را ردیابی کرد. او همچنین مجبور بود دسترسی به برنامه را در وب کم خود داشته باشد. هر 10 دقیقه ، این برنامه به طور تصادفی سه عکس می گرفت تا مطمئن شود که در میز آن قرار دارد. اگر رونی در آنجا نبود که WorkSmart عکاسی کند ، یا اگر تشخیص داد که کار او زیر یک سطح تولید خاص است ، برای این فاصله 10 دقیقه ای به شما تعلق نمی گیرد. شخص دیگری که با رونی شروع به کار کرد ، از دسترسی وب کم به نرم افزار خودداری کرد و شغل خود را از دست داد. مشاغلی که به مهارتهای بین فردی احتیاج دارند کیفیت اصلی در این زمینه "همدلی" است ، بنابراین نظارت در محیط کار به طور طبیعی در صدد سنجش این مسئله است و کارگران را به سمت نمایش دادن بیشتر سوق می دهد. اما یک مشکل بزرگ در اینجا وجود دارد:

این حکمت متعارف شده است که مهارت های بین فردی مانند همدلی یکی از نقش هایی خواهد بود که پس از به دست گرفتن روبات ها به انسان منتقل می شود. ، و این اغلب با آینده ای خوش بینانه رفتار می شود. اما مراکز تماس نشان می دهد که به راحتی چگونه می تواند تاریک شود: اتوماسیون افزایش همدلی مورد نیاز کارگران و سیستم های خودکار که برای ایجاد همدلی بیشتر آنها یا حداقل تقریب آنها استفاده می شود. دستگاه قابل خواندن آنجلا ، کارگری که با [the call center evaluation software] Voci تلاش می کند ، از ترس این که AI برای مقابله با تأثیرات شرایط کار غیرقانونی استفاده شود ، کار او را حتی فروتنانه تر می کند. این تجربه مشکلات عمده دیگر مرتبط با استفاده از سیستم های خودکار برای مدیریت افراد را نشان می دهد. به عنوان مثال ، در افراط و تفریط ساده لوحانه به نظر می رسد كه چیزی به اندازه "همدلی" پیچیده و گریزان است كه نه تنها توسط مجموعه های الگوریتم قابل شناسایی است ، بلكه دریافت می كند. نوعی نماد به منظور درخواست تغییراتی در رفتار کارگر. این در مورد بسیاری از جنبه های دیگر شغل نیز صادق است. صرفنظر از مهارت های یک مدیر خوب انسانی به خطوط کد هوش مصنوعی ، مهم نیست که نوشتارها چقدر یا چقدر خوب باشند – حداقل ممکن نیست.

علاوه بر این ، تلاش برای انجام این کار چالش های معمول را با سیستم های AI مواجه می کند. به عنوان مثال ، فرضیات اصلی برنامه ها ممکن است حاوی تعصبات پنهان باشد. و حتی اگر این حداقل ها باشند ، مدیران الگوریتمی جعبه های سیاه برای کارگران باقی می مانند ، که هرگز از دلیل تصمیم گیری درباره آنها آگاه نیستند ، و همچنین قادر به تجدید نظر نیستند. در واقع ، انتقال از مدیریت سنتی به مدیریت رایانه ای ، روشی از عینیت را ارائه می دهد که می تواند چالش تصمیم گیری را برای کارگران دشوارتر کند ، زیرا به نظر می رسد آنها بی طرف و منطقی هستند. نکته مهم این است که به طور فزاینده ای بی حس می شود و درنهایت یک روش ضد تولید در مدیریت مردم فقط به دلیل نظارت مستمر و کامل از کنترل ممکن است محل کار

تصویر برجسته اسکات لوئیس.

درباره Glyn Moody

Glyn Moody یک روزنامه نگار آزاد است که در مورد حریم شخصی می نویسد و صحبت می کند ، یکی از راه های متوقف کردن این از دست دادن بشریت ، مبارزه با از دست دادن حریم خصوصی است که زیر آن قرار دارد نظارت ، حقوق دیجیتالی ، متن باز ، حق چاپ ، حق ثبت اختراع و موضوعات سیاست مربوط به فناوری دیجیتال. وی شروع به پوشش استفاده از اینترنت تجاری در سال 1994 کرد و اولین فیلم سینمایی عمومی را در لینوکس نوشت ، که در اوت 1997 در Wired ظاهر شد. کتاب او "کد Rebel" ، اولین و تنها است تاریخچه دقیق ظهور منبع آزاد. در حالی که اثر بعدی وی ، "کد زندگی دیجیتال" ، به بررسی بیوانفورماتیک – تقاطع انفورماتیک با ژنتیک می پردازد.

  خدمات VPN

Private Internet Access Blog

دسته‌ها
AI body camera clearview EU facial recognition Governments metropolitan police News police Privacy wolfcom آنتی فیلتر برای ویندوز

پلیس در سرتاسر جهان به تلاش روزمره – و در زمان واقعی – ادامه می دهد

/>

تشخیص چهره بیشتر از بیشتر فناوری ها در این وبلاگ ظاهر می شود. این امر تا حدی به این دلیل است که هوش مصنوعی زمینه ساز به سرعت پیشرفت می کند ، توانایی سیستم های کم هزینه را برای مطابقت با چهره های موجود در پایگاه داده ها افزایش می دهد. حماسه Clearview یک مثال خوب است ، جایی که یک استارت آپ کاملاً جدید آنچه را که قرار است یک سیستم بسیار قدرتمند باشد ، جمع کرده است. جزئیات بیشتر در لیست مشتری های Clearview ، به لطف نشتی ، که توسط BuzzFeed گزارش شده است ، در حال ظهور است:

آژانس اصلی اجرای قانون ایالات متحده ؛ مهاجرت ، وزارت دادگستری ، خرده فروشانی مانند Best Buy و Macy's و صندوق ثروت مستقل امارات متحده عربی از جمله هزاران نهاد دولتی و مشاغل خصوصی در سراسر جهان به عنوان مشتریان

و به نظر می رسد که سرمایه گذاران شرکت و همچنین مشتریان و دوستان آن به طور کلی در طی توسعه خود به این ابزار دسترسی داشتند. ، که بعضی اوقات آنها را برای اهداف مشکوک استفاده می کردند:

افرادی که ارتباطات Clearview دارند ، از تشخیص چهره در مهمانی ها ، تاریخ ها و جلسات تجاری استفاده می کردند و قدرت آن را نشان می دادند سرگرمی یا استفاده از آن برای شناسایی افرادی که نام آنها را نمی شناختند یا

اگر هیچ چیز دیگری نیست ، یادآوری ترسناک از چگونگی استفاده این فناوری توسط افرادی است که آن را دارند در حال حاضر قدرت در جامعه برای تقویت موقعیت خود با جاسوسی مخفیانه از رقبا و تهدیدهای احتمالی. هرچه این فناوری قدرتمندتر باشد ، برای این افراد جذاب تر خواهد بود و خسارت احتمالی آن بیشتر خواهد شد.

براساس گزارشی ، Clearview قصد دارد با ایجاد دوربین های نظارتی و عینک واقعیت افزوده ای که مبتنی بر آن است ، در پایگاه داده خود – و شاید بر اساس مشهوریت فعلی آن – ایجاد کند. نرم افزار حداقل مردم اکنون می توانند از قانون حفظ حریم خصوصی مصرف کننده کالیفرنیا استفاده کنند تا ببینند اطلاعات Clearview در مورد آنها چیست. GDPR اتحادیه اروپا باید دسترسی یکسان به جزئیات را برای شهروندان اتحادیه اروپا فراهم کند ، اگرچه هنوز کسی گزارش نکرده است که چنین کاری را انجام داده باشد. در پیشرفت جالب دیگر ، ایالت ورمونت از Clearview شکایت کرد و این شرکت را به جمع آوری غیرقانونی عکس از ساکنان ایالت به منظور ساختن "بانک اطلاعاتی نظارت دیستوپی" متهم کرد. متأسفانه ، فقط Clearview نیست که باید نگران آن باشیم. OneZero گزارشی از شرکتی بنام Wolfcom دارد که در حال توسعه تشخیص چهره مستقیم برای دوربین های بدن پلیس ایالات متحده است. این یک تصمیم مهم است ، زیرا آکسون ، بزرگترین شرکت تولید کننده دوربین های بدن در ایالات متحده ، سال گذشته اعلام کرد که تشخیص چهره را به سیستم های خود اضافه نمی کند. ممکن است اعلامیه ولفکام آکسون را به دنبال پیروی از خواستگاری سوق دهد و تشخیص چهره به عادی دوربین های بدن پلیس در ایالات متحده تبدیل خواهد شد. این یک اثر کلاسیک برجسته است که با استفاده از آن ، حرکات انقلابی یک بازیکن می تواند کل صنعت را پس از آنها سوق دهد. در زمینه فرسایش حریم خصوصی ، این خبر بد است.

در اتحادیه اروپا ، یک گزارش فاش شده نشان داد که پلیس می خواهد یک شبکه پان اروپایی از پایگاه داده های تشخیص چهره ایجاد کند. این ممکن است کاملاً در مقیاس 3 میلیارد چهره ادعای Clearview نباشد ، اما همچنان یک سیستم بزرگ و قدرتمند خواهد بود. در صورت ایجاد ، احتمالاً نیروی پلیس اتحادیه اروپا را ترغیب به استفاده منظم از آن می کند ، زیرا این یک منبع اصلی رسمی خواهد بود از اتحادیه اروپا این امر باعث می شود كه كاربرد تشخیص چهره توسط پلیس در اروپا عادی شود.

چند هفته پیش ، گزارشی خسته کننده نشان داد که اتحادیه اروپا راه دیگری را طی می کند و تشخیص چهره در فضاهای عمومی را ممنوع می کند. اما وقتی استراتژی هوش مصنوعی منطقه آزاد شد ، چنین تعهدی را کنار گذاشت. به طور کلی ، سند اتحادیه اروپا "درباره هوش مصنوعی – رویکرد اروپایی به تعالی و اعتماد به نفس" ، از صحبت کردن در مورد شناخت عمیق صورت ، حتی اگر مسلماً مشکل ساز ترین کاربرد AI امروز است. به نظر می رسد ، این نشان می دهد که کمیسیون اروپا قصد دارد تشخیص چهره را در فضاهای عمومی مستقر کند. احتمالاً "ضمانت" وجود دارد ، اما پس از اجازه دادن ، سوء استفاده احتمالاً بیشتر است. دولت بریتانیا هیچ صلاحیتی برای حمایت آشکار از پروژه های تشخیص چهره ندارد ، همانطور که توسط International International یادداشت شده است. به عنوان مثال:

FACER2VM یک برنامه تحقیقاتی پنج ساله است که هدف آن تشخیص چهره است تا سال 2020 همه کاره است.

این پروژه فناوری تشخیص نا محدود چهره را برای طیف گسترده ای از برنامه های کاربردی این رویکرد به هدف طراحی راه حل های یادگیری جدید ماشین ، که ترکیبی از تکنیک یادگیری عمیق با اطلاعات پیشرفته پیشرفته منتقل شده توسط مدل های صورت سه بعدی است. پلیس متروپولیتن لندن در حال حاضر اقدام به تشخیص چهره در زمان واقعی می کند. و این علیرغم نتایج ناامیدکننده حاصل از آخرین استقرار آزمون. در یک سایت ، تشخیص چهره 8،600 چهره گرفت و آنها را با یک لیست ساعت 7،292 نفر مقایسه کرد. سیستم هشت هشدار گزارش داده است. هفت نفر مثبت کاذب بودند و تنها یک مثبت مثبت. برای یادآوری در مورد مشکلات احتمالی ، در اینجا داستانی از آرژانتین آمده است ، که در آن مرد بد در ژوئیه 2019 به دلیل سرقت که سه سال پیش اتفاق افتاد ، در شهری در حدود 400 مایل دورتر دستگیر شد. معلوم است که این دزد شخصی به همین نام بوده است ، اما سیستم تشخیص چهره آن را گزارش کرده است و پلیس این اطلاعات را پیگیری کرده است. پلیس به جای اعتراف اشتباه خود فوراً ، این مرد را به مدت شش روز قبل از آزادی وی بازداشت کرد. این مسئله خطر استفاده از سیستم های "هوشمند" را که شامل تشخیص چهره می شوند ، برجسته می کند: آنها می توانند اجرای قانون را تشویق به عمل کردن کمتر از هوشمندانه ، صرفاً به دلیل اعتماد به نفس غیرمجاز به قابلیت های سیستم های مبتنی بر هوش مصنوعی. ما می توانیم انتظار داشته باشیم که بسیاری از این موضوعات را ببینیم ، زیرا پلیس در سراسر جهان پذیرش چهره در زمان واقعی را به عنوان روشی به ظاهر "آسان" برای تقویت توانایی خود در جلب توجه افراد مورد علاقه ، پذیرفته است.

تصویر برجسته vero66braud.

درباره Glyn Moody

Glyn Moody یک روزنامه نگار آزاد است که در مورد حریم خصوصی ، نظارت ، حقوق دیجیتال ، متن باز ، کپی رایت ، ثبت اختراعات می نویسد و صحبت می کند. و مسائل مربوط به سیاست های مربوط به فناوری دیجیتال. وی شروع به پوشش استفاده از اینترنت تجاری در سال 1994 کرد و اولین فیلم سینمایی عمومی را در لینوکس نوشت ، که در اوت 1997 در Wired ظاهر شد. کتاب او "کد Rebel" ، اولین و تنها است تاریخچه دقیق ظهور منبع آزاد. در حالی که اثر بعدی وی ، "کد زندگی دیجیتال" ، به بررسی بیوانفورماتیک – تقاطع انفورماتیک با ژنتیک می پردازد.

  خدمات VPN

Private Internet Access Blog