ככל שהטכנולוגיה ממשיכה להתקדם, כך גם מתעוררים חששות חדשים לגבי השימוש בכלים החזקים החדשים הללו. העתירה שהוגשה היום לבג"ץ על ידי האגודה לזכויות האזרח מעלה טענות מטרידות לגבי אופן השימוש של מערכות בינה מלאכותית מתוחכמות בשדה התעופה בן גוריון לצרכי 'שיטור מנבא'.
על פי העתירה, מערכת בינה מלאכותית מסוגלת לבחור באופן אוטומטי את הנוסעים שיעברו חיפוש קפדני יותר בחשד להברחת סמים, על סמך נתונים שאינם ידועים לשוטרים עצמם. המערכת משתמשת בכלים של למידת מכונה כדי ל'נבא' מי מהנוסעים עלול להיות מבריח, ומסננת אותם על פי רשימת הנוסעים.
בעוד שהרעיון של שימוש בטכנולוגיה מתקדמת לשיפור הביטחון עשוי להישמע לגיטימי, העותרים טוענים שמדובר למעשה ב'קופסה שחורה' שהחלטותיה לא שקופות וייתכן שהיא רגישה להפליה על בסיס גזע או מוצא. "השימוש בכלי כה רגיש כמו בינה מלאכותית מחייב דיון מעמיק ומסודר, ולא קבלת החלטות נמהרות 'כמו גאדג'ט חדש'", אמרה עו"ד אן סוצ'יו המייצגת את האגודה לזכויות האזרח.
לדבריה, בעוד בישראל נכנסו לשימוש במערכת באופן חפוז, במדינות רבות בעולם המערבי מתנהל דיון ער בנושא וננקטת זהירות רבה. "זוהי הזדמנות לבג"ץ להציב תקדים חשוב לגבי המגבלות על שימוש רגולטורי בבינה מלאכותית כשמדובר בפגיעה אפשרית בזכויות אדם".
מן העבר השני, נציגי המשטרה צפויים לטעון שמדובר בכלי יעיל במלחמה בהברחות הסמים שתורם לביטחון הלאומי. השאלה היא האם התועלת הצפויה שקולה לחששות מפני הפגיעה הפוטנציאלית בזכויות אדם ובפרטיות. התשובה, כנראה, תונח בידיו של בג"ץ.