کارمند سابق بنک آف آمریکا به همکاری با باند جنایی اعتراف کرد!
وزارت دادگستری آمریکا اعلام کرد که یک کارمند سابق بنک آف آمریکا Bank of America به نام رونگجیان لی، به جرم مشارکت در یک توطئه بین المللی پولشویی اعتراف کرده است.
لی از سال ۲۰۲۱ تا ۲۰۲۲ از موقعیت خود در بانک برای کمک به یک سازمان جنایی به رهبری جین هوا ژانگ استفاده کرده تا پروتکل های ضدپولشویی را دور بزنند.
این گروه با استفاده از حساب های بانکی که برخی با گذرنامه های جعلی افتتاح شده بودند، حداقل ۲۵ میلیون دلار پول حاصل از قاچاق مواد مخدر و سایر فعالیت های غیرقانونی را پولشویی کرده اند.
لی با اعتراف به جرم خود، با مجازات حداکثر ۲۰ سال زندان و جریمه نقدی تا ۵۰۰۰۰۰ دلار روبه روست.
#اعتراف #آمریکا #کارمند
#x4y
@x4ych
اولین ربات تلگرامی تحلیل نمودار ارزهای دیجیتال
@x4ych_bot
وزارت دادگستری آمریکا اعلام کرد که یک کارمند سابق بنک آف آمریکا Bank of America به نام رونگجیان لی، به جرم مشارکت در یک توطئه بین المللی پولشویی اعتراف کرده است.
لی از سال ۲۰۲۱ تا ۲۰۲۲ از موقعیت خود در بانک برای کمک به یک سازمان جنایی به رهبری جین هوا ژانگ استفاده کرده تا پروتکل های ضدپولشویی را دور بزنند.
این گروه با استفاده از حساب های بانکی که برخی با گذرنامه های جعلی افتتاح شده بودند، حداقل ۲۵ میلیون دلار پول حاصل از قاچاق مواد مخدر و سایر فعالیت های غیرقانونی را پولشویی کرده اند.
لی با اعتراف به جرم خود، با مجازات حداکثر ۲۰ سال زندان و جریمه نقدی تا ۵۰۰۰۰۰ دلار روبه روست.
#اعتراف #آمریکا #کارمند
#x4y
@x4ych
اولین ربات تلگرامی تحلیل نمودار ارزهای دیجیتال
@x4ych_bot
اعتراف اوپنایآی: هشدارهای کارشناسان درباره چاپلوسی چت جیپیتی نادیده گرفته شد
شرکت اوپن ای آی Open AI اعتراف کرده است که هنگام عرضه به روزرسانی مدل هوش مصنوعی پرچم دار خود، چت جی پی تی GPT-4o، نگرانی های آزمایش کنندگان متخصص را نادیده گرفته است.
این به روزرسانی که در ۲۵ آوریل ۵ اردیبهشن منتشر شد، مدل هوش مصنوعی را «به طور قابل توجهی چاپلوس تر» کرد و به همین دلیل ۳ روز بعد، به دلیل نگرانی های ایمنی بازگردانده شد.
اوپن ای آی در پست وبلاگ خود توضیح داد که برخی از کارشناسان قبل از عرضه متوجه رفتار غیرعادی مدل شده بودند، اما شرکت به دلیل سیگنال های مثبت اولیه کاربران تصمیم به انتشار گرفت که «تصمیم اشتباهی» بود.
این شرکت افزود که معرفی سیگنال پاداش بازخورد کاربران، سیگنال اصلی را که مانع چاپلوسی می شد، تضعیف کرده است. اوپن ای آی اذعان کرد که این رفتار به ویژه در زمینه ارائه توصیه های شخصی، می تواند ریسک هایی ایجاد کند و اکنون قصد دارد ارزیابی های مربوط به «چاپلوسی» را به فرآیند بررسی ایمنی خود اضافه کند.
#شد #چاپلوسی #اعتراف
#x4y
@x4ych
اولین ربات تلگرامی تحلیل نمودار ارزهای دیجیتال
@x4ych_bot
شرکت اوپن ای آی Open AI اعتراف کرده است که هنگام عرضه به روزرسانی مدل هوش مصنوعی پرچم دار خود، چت جی پی تی GPT-4o، نگرانی های آزمایش کنندگان متخصص را نادیده گرفته است.
این به روزرسانی که در ۲۵ آوریل ۵ اردیبهشن منتشر شد، مدل هوش مصنوعی را «به طور قابل توجهی چاپلوس تر» کرد و به همین دلیل ۳ روز بعد، به دلیل نگرانی های ایمنی بازگردانده شد.
اوپن ای آی در پست وبلاگ خود توضیح داد که برخی از کارشناسان قبل از عرضه متوجه رفتار غیرعادی مدل شده بودند، اما شرکت به دلیل سیگنال های مثبت اولیه کاربران تصمیم به انتشار گرفت که «تصمیم اشتباهی» بود.
این شرکت افزود که معرفی سیگنال پاداش بازخورد کاربران، سیگنال اصلی را که مانع چاپلوسی می شد، تضعیف کرده است. اوپن ای آی اذعان کرد که این رفتار به ویژه در زمینه ارائه توصیه های شخصی، می تواند ریسک هایی ایجاد کند و اکنون قصد دارد ارزیابی های مربوط به «چاپلوسی» را به فرآیند بررسی ایمنی خود اضافه کند.
#شد #چاپلوسی #اعتراف
#x4y
@x4ych
اولین ربات تلگرامی تحلیل نمودار ارزهای دیجیتال
@x4ych_bot