במהלך השבועות האחרונים, הרגולטורים והמחוקקים ברחבי העולם הבהירו כי חוקים חדשים ותקנות מתאימות יעצבו בקרוב כיצד חברות משתמשות בבינה מלאכותית (AI).
בסוף מרץ, חמשת הרגולטורים הפיננסיים הפדרליים הגדולים בארצות הברית פרסמו בקשה למידע על אופן השימוש בבנקים ב-AI, כך איתתו כי הנחיות חדשות מגיעות לענף הפיננסים. רק כמה שבועות לאחר מכן פרסמה נציבות הסחר הפדרלית האמריקאית (FTC) מערכת הנחיות נועזת ולא אופיינית בנושא "אמת, הוגנות ושוויון" בתחום הבינה המלאכותית, בטענה כי השימוש הבלתי חוקי ב-AI, גורם יותר נזק מתועלת.
הנציבות האירופית הלכה בעקבותיה וב-21 באפריל פרסמה הצעה משלה להסדרת AI, הכוללת קנסות של עד 6% מההכנסות השנתיות של החברה בגין אי ציות – קנסות הגבוהים מהעונשים ההיסטוריים של עד 4% מהמחזור המוכרים לנו מעולם דיני הפרטיות (GDPR).
עבור חברות העוסקות או משתמשות ב-AI, הדילמה ברורה, מצד אחד, מסגרות רגולטוריות מתפתחות על AI ישפיעו משמעותית על יכולתן להשתמש בטכנולוגיה, מצד שני, כאשר חוקים והצעות חדשות עדיין מתפתחים, זה יכול להיראות כאילו עדיין לא ברור מה חברות יכולות וצריכות לעשות.
החדשות הטובות, עם זאת, המגמות מרכזיות מאגדות כמעט את כל החוקים הנוכחיים והמוצעים בנושא AI, מה שאומר שישנן פעולות קונקרטיות שחברות יכולות לבצע כעת בכדי להבטיח שהמערכות שלהן לא יפרו את החוקים והתקנות בעתיד.
המגמה הראשונה היא הדרישה לערוך הערכות של סיכוני AI ולתעד כיצד ממוזערים (ואידיאלי, נפתרים) סיכונים כאלה. שורה של מסגרות רגולטוריות מתייחסות לסוגי הערכות הסיכון הללו כאל "הערכות השפעה אלגוריתמיות" – המכונות גם לפעמים "IA for AI" – שהפכו פופולריות יותר ויותר במגוון של מסגרות AI והגנת נתונים.
המגמה השנייה היא דין וחשבון, ועצמאות, או במילים פשוטות, דרישה כי ה-AI ייבדק על ידי צוות טכני ומשפטי שונה מאלה שפיתחו אותו במקור;
מומלץ כי ארגונים יבקשו לשכור מומחים חיצוניים שיעסקו בהערכות אלה כדי להוכיח אחריות מלאה ועצמאות.
כך או כך, להבטיח שתהליכים ברורים יוצרים הפרדה ועצמאות בין היזמים לאלה שמעריכים את מערכות הסיכון הם מרכיב מרכזי של כמעט כל מסגרות רגולטוריות חדשות בנושא AI.
משרדנו ישמח לתת יעוץ וכן לסייע בביצוע בדיקת התאמת המערכת לחקיקה העתיד להגיע, וכן התאמה לדיני הגנת הפרטיות, בישראלי ובעולם.