پاپ و رگولاتورهای ایالات متحده در مورد خطرات هوش مصنوعی هشدار می دهند: قانون رمزگشایی شده است
پاپ و رگولاتورهای ایالات متحده در مورد خطرات هوش مصنوعی هشدار می دهند: قانون رمزگشایی شده است
امروزه، همه درباره هوش مصنوعی (AI) و خطرات احتمالی آن نظر دارند. حتی پاپ فرانسیس – رئیس کلیسای کاتولیک – به بشریت در مورد خطرات احتمالی هوش مصنوعی هشدار داد و توضیح داد که برای کنترل آن چه باید کرد. پاپ میخواهد یک معاهده بینالمللی را ببیند برای تنظیم هوش مصنوعی و اطمینان از آن توسعه یافته و از نظر اخلاقی استفاده می شود. او میگوید در غیر این صورت، خطر سقوط در مارپیچ یک «دیکتاتوری تکنولوژیک» را داریم. خطر هوش مصنوعی زمانی به وجود می آید که توسعه دهندگان “میل به سود یا عطش قدرت» که بر آرزوی وجود آزادانه و مسالمت آمیز غالب است.
همین احساس را شورای نظارت بر ثبات مالی (FSOC) که متشکل از تنظیمکنندههای ارشد مالی و به ریاست جانت یلن، وزیر خزانهداری ایالات متحده است، ابراز کرد. این سازمان در گزارش سالانه خود تاکید کرد که هوش مصنوعی دارای خطرات خاصی است، مانند امنیت سایبری و ریسک های مدل پیشنهاد کرد که شرکتها و تنظیمکنندهها دانش و قابلیتهای خود را برای نظارت بر نوآوری و استفاده از هوش مصنوعی و شناسایی ریسکهای نوظهور افزایش دهند. بر اساس این گزارش، ابزارهای خاص هوش مصنوعی بسیار فنی و پیچیده هستند و برای مؤسسات برای توضیح یا نظارت مؤثر آنها چالشهایی را ایجاد میکنند. این گزارش هشدار میدهد که شرکتها و تنظیمکنندهها ممکن است نتایج مغرضانه یا نادرست را بدون درک جامع نادیده بگیرند.
حتی قضات در بریتانیا نیز در مورد خطرات استفاده از هوش مصنوعی در کار خود نشخوار میکنند. چهار قاضی ارشد در بریتانیا راهنمای قضایی برای هوش مصنوعی صادر کرده اند. به «استفاده مسئولانه» از هوش مصنوعی در دادگاه ها و دادگاه ها می پردازد. این راهنما به موارد بالقوه مفید استفاده از هوش مصنوعی، در درجه اول در جنبه های اداری مانند خلاصه کردن متون، نوشتن ارائه ها و نوشتن ایمیل اشاره می کند. با این حال، بیشتر دستورالعملها به قضاوتها هشدار میدهند که از مصرف اطلاعات نادرست تولید شده از طریق جستوجوها و خلاصههای هوش مصنوعی خودداری کنند و مراقب هر چیز نادرستی باشند که توسط هوش مصنوعی به نام آنها تولید میشود. استفاده از هوش مصنوعی برای تحقیق و تجزیه و تحلیل قانونی به خصوص توصیه نمی شود.
برای نشان دادن انطباق با FBI، به FBI متصل شوید
Tether، شرکت پشتیبان تتر stablecoin (USDT)، نامههای ارسالی به قانونگذاران ایالات متحده را فاش کرد. درخواست مداخله وزارت دادگستری (DOJ) در مورد استفاده غیرقانونی از استیبل کوین آن. هدف این نامهها پاسخگویی به تماسهای سناتور سینتیا لومیس و نماینده فرنچ هیل از اکتبر، از وزارت دادگستری است. “برای ارزیابی دقیق میزان پشتیبانی مادی و منابع بایننس و تتر برای حمایت از تروریسم.”
Tether اظهار داشت که دارای یک برنامه مشتری خود را بشناسید، یک سیستم نظارت بر تراکنش و یک “رویکرد پیشگیرانه” برای شناسایی حساب ها و فعالیت های مشکوک. علاوه بر این، تتر گفت که بررسیهای مشتریان به ثبت نام آنها ختم نمیشود و مدعی شد که از ابزارهای نظارتی برای ردیابی مداوم فعالیت مشتری استفاده میکند. این شرکت همچنین فاش کرد که به عنوان بخشی از تلاشهای همکاری با مجری قانون، اداره تحقیقات فدرال (FBI) را در پلتفرم خود قرار داده است.
ادامه خواندن
KuCoin ساکنان نیویورک را ممنوع می کند
صرافی رمزارز KuCoin با پرداخت 22 دلار موافقت کرده است. میلیون دلار به ایالت نیویورک و منع ساکنان ایالت از استفاده از پلتفرم آن، بر اساس یک حکم شرط و رضایت ارائه شده در دادگاه عالی نیویورک. علاوه بر این، KuCoin «اعتراف میکند که خود را بهعنوان «صرافی» معرفی میکند و طبق قوانین ایالت نیویورک بهعنوان صرافی ثبت نشده است.» این شرکت موافقت کرده است که حساب های تمام کاربران ساکن نیویورک را ظرف 120 روز ببندد و از دسترسی ساکنان نیویورک در آینده جلوگیری کند. علاوه بر این، دسترسی به برداشتها را فقط در 30 روز محدود میکند و 90 روز باقیمانده را برای برداشت وجه در اختیار کاربران قرار میدهد.
ادامه خواندن
چهار جرم رمزنگاری در میان پرونده های برتر IRS در سال 2023 فهرست شده است
واحد تحقیقات جنایی سرویس درآمد داخلی ایالات متحده، چهار پرونده مرتبط با رمزنگاری را در میان 10 مورد از “مشهورترین و برجسته ترین تحقیقات” خود در سال 2023 فهرست کرده است. چهار مورد مهم در سال 2023 مربوط به توقیف ارزهای دیجیتال بود. ، روش های متقلبانه، پولشویی و سایر طرح ها. کارل سباستین گرینوود، یکی از بنیانگذاران OneCoin، که در سال گذشته در سومین تحقیق پرطرفدار خود شرکت کرد، در سپتامبر به دلیل نقشش در بازاریابی و فروش یک دارایی رمزنگاری متقلبانه به 20 سال زندان محکوم شد.
ادامه خواندن