این دوره، چارچوبی جامع برای پیادهسازی مسئولانه هوش مصنوعی در بخش دولتی ارائه میدهد و بر چگونگی استفاده نهادهای دولتی از هوش مصنوعی برای بهبود کارایی، اثربخشی و عدالت در ارائه خدمات تمرکز دارد. به مربی برندی نانک بپیوندید تا او استراتژیهای مسئولانه هوش مصنوعی را بررسی کند، موارد استفاده تحولآفرین را ارزیابی کند و نحوه بهکارگیری رویکردهای عملی برای مقیاسبندی پروژههای هوش مصنوعی را به شما نشان دهد. در طول مسیر، برندی همچنین بهترین شیوهها را برای ارزیابی ریسکها، همسویی با استانداردهای اخلاقی و تقویت اعتماد عمومی به استقرار هوش مصنوعی پوشش میدهد. این دوره برای متخصصان، مشاوران، رایزنان و تکنسینهای بخش دولتی که به دنبال کسب اطلاعات بیشتر در مورد هوش مصنوعی و رهبری مسئولانه و مؤثر ابتکارات هوش مصنوعی بخش دولتی هستند، ایدهآل است.
نمونه ویدیوی آموزشی ( زیرنویسها جدا از ویدیو است و میتوانید آنرا نمایش ندهید ) :
[فارسی]
01 مقدمه
01-01 اطمینان از استفاده مسئول از هوش مصنوعی در دولت
02 دولت هوشمند: استفاده از هوش مصنوعی برای تحول در بخش عمومی
02-01 تاریخچه مختصری از هوش مصنوعی در دولت
02-02 برنامه های هوش مصنوعی فعلی و در حال ظهور در بخش دولتی
03 ساخت و اجرای استراتژی مسئول هوش مصنوعی شما
03-01 اصول اصلی AI مسئول
03-02 مؤلفه های اصلی یک استراتژی مسئول AI
03-03 تراز کردن استراتژی های مسئول هوش مصنوعی با مأموریت های بخش دولتی
04 AI از مواردی برای کارآیی ، اثربخشی و عدالت استفاده می کند
04-01 برنامه های کاربردی AI در حمل و نقل
04-02 برنامه های کاربردی AI در مراقبت های بهداشتی
04-03 برنامه های هوش مصنوعی در اجرای قانون
04-04 برنامه های کاربردی هوش مصنوعی در خدمات اجتماعی
05 ارزیابی و مدیریت ریسک
05-01 شناسایی خطرات احتمالی در پروژه های هوش مصنوعی عمومی
05-02 ملاحظات نظارتی و انطباق برای دولت هوش مصنوعی
05-03 ابزارها و چارچوب های ارزیابی تأثیر هوش مصنوعی: مدیریت ریسک
06 مقیاس استفاده از هوش مصنوعی در بخش دولتی
06-01 بهترین روشها برای پروژه های آزمایشی و پیاده سازی های مرحله ای
06-02 تأمین بودجه و خرید ذینفعان
07 ارزیابی و حفظ ابتکارات هوش مصنوعی
07-01 شاخص های کلیدی عملکرد (KPI) برای بخش عمومی AI
07-02 به روزرسانی و حفظ سیستم های هوش مصنوعی برای ارتباط مداوم
08 نتیجه گیری
08-01 از کجا می توانید سفر یادگیری هوش مصنوعی خود را ادامه دهید
[ENGLISH]
01 Introduction
01-01 Ensuring the responsible use of AI in government
02 Smart Government: Leveraging AI to Drive Public Sector Transformation
02-01 A brief history of AI in government
02-02 Current and emerging AI applications in the public sector
03 Building and Implementing Your Responsible AI Strategy
03-01 The core principles of responsible AI
03-02 The core components of a responsible AI strategy
03-03 Aligning responsible AI strategies with public sector missions
04 AI Use Cases for Efficiency, Effectiveness, and Equity
04-01 AI applications in transportation
04-02 AI applications in healthcare
04-03 AI applications in law enforcement
04-04 AI applications in social services
05 Risk Assessment and Management
05-01 Identifying potential risks in public AI projects
05-02 Regulatory and compliance considerations for government AI
05-03 Tools and frameworks for AI impact assessment: Managing risk
06 Scaling AI Use in the Public Sector
06-01 Best practices for pilot projects and phased implementations
06-02 Securing funding and stakeholder buy-in
07 Evaluating and Sustaining AI Initiatives
07-01 Key performance indicators (KPIs) for public sector AI
07-02 Updating and maintaining AI systems for ongoing relevance
08 Conclusion
08-01 Where to continue your AI learning journey
Brandie Nonnecke ، دکترا مدیر موسس آزمایشگاه سیاست Citris در UC Berkeley است.
براندی همچنین به عنوان مدیر techpolicyinitiative ابتکار سیاست فنی ، به طور مشترک با دانشکده سیاست عمومی گلدمن میزبان است و به عنوان همکار Hub Policy Policy ، به طور مشترک با ابتکار امنیتی CLTC AI میزبان است. براندی یکی از همکاران در Schmidt Futures است و به تازگی به عنوان یک فناوری و همکار حقوق بشر در مرکز سیاست حقوق بشر کار در مدرسه هاروارد کندی خدمت کرده است. تحقیقات او در Science ، Wired ، NPR ، BBC News ، بررسی فناوری MIT و موارد دیگر به نمایش در آمده است.
براندی حقوق بشر را در تقاطع قانون ، سیاست و فن آوری های نوظهور مطالعه می کند. کار فعلی او بر انصاف و پاسخگویی در هوش مصنوعی متمرکز است.
انتشارات تحقیقاتی وی و نسخه های وی در nonnecke.com در دسترس است.