האם צריך לוולדץ את ChatGPT במערכת האיכות?

 

מאז ש-ChatGPT נכנס לחיינו, הוא כבר משנה את הדרך שבה אנחנו כותבים, מנתחים וחושבים רגולציה. אבל כשהשאלה מגיעה "האם צריך לבצע ולידציה ל-ChatGPT?" - התשובה שלי היא: אנחנו שואלים את השאלה הלא נכונה.

כיועצת איכות ורגולציה למכשור רפואי, אני פוגשת את השאלה הזו יותר ויותר, במיוחד מצד ארגונים שמתחילים לשלב כלים מבוססי AI בפעילות היומיומית שלהם.

ChatGPT הוא לא תוכנת מחשב - אז אל תתייחסו אליו כך

המודלים הג'נרטיביים כמו ChatGPT הם לא כלים דטרמיניסטיים. הם לא פועלים על לוגיקה של קלט A ייתן תמיד פלט B. הם הסתברותיים, משתנים, תלויי הקשר, ובעיקר, לא ניתנים לוולידציה קלאסית.

במקום לנסות לדחוף אותם למסגרת רגולטורית שלא מתאימה להם, הגיע הזמן שנשאל: מהי שליטה בהקשר של כלים כאלו?

ארבעה צעדים אינטליגנטיים לשילוב ChatGPT במסגרת רגולטורית

אם אתם משתמשים בכלים מבוססי LLM בתהליכי איכות ורגולציה, הנה מה שחשוב לעשות (לא מתוך פחד מהמבדק, אלא מתוך אחריות מקצועית):

  1. הגדירו את השימוש בצורה ברורה: מה בדיוק הכלי עושה? ניסוח ראשוני של פרוטוקולים? סיכום מסמכים? ניתוח תלונות? שימוש מעורפל = סיכון מעורפל.

  2. העריכו את הסיכון לפי ההקשר: אותו כלי יכול להיות בטוח לחלוטין בתהליך אחד ומסוכן מאוד באחר. זה תלוי בסוג ההחלטות, ההשפעה על הבטיחות, ובאיזו מידה אתם סומכים עליו.

  3. שלבו בקרה אנושית כחלק מהתהליך: אין תוצאה שיוצאת מ-ChatGPT והולכת ישר לתיק. אבל לא כל "ביקורת אנושית" מספיקה. נדרש תהליך מסודר, עם לוגיקת סקירה, תיעוד, ואחריות.

  4. תעדו את ההיגיון המקצועי: לא רק את מה שהחלטתם, אלא למה החלטתם כך. הרגולטור רוצה להבין  את הרציונל.

מדובר על שליטה מקצועית

העובדה שאנחנו משתמשים ב-AI לא אומרת שאנחנו מוותרים על שליטה. להיפך. זה מחייב אותנו לחשוב: איך אנחנו מיישמים עקרונות של עקיבות, אחריות ומחשבה ביקורתית גם כשאנחנו משתמשים בכלי שלא בנוי להתאים ל"קופסה" הרגילה.

אז לא, אין צורך לוולדץ את ChatGPT במובן המסורתי.
אבל כן צריך לבנות תהליך, להבין את הסיכונים ולנהל אותם.

    מעבר ליישום המעשי, יש גם שיקולים משפטיים ואתיים שחייבים לקחת בחשבון.

    שיקולים משפטיים ואתיים

    • האם הכלי קיבל מידע רגיש או מזוהה? שימוש במידע כזה ב-ChatGPT יכול להפר את ה-GDPR או חוקים מקומיים להגנת פרטיות.

    • מי אחראי משפטית לתוצאה ש-ChatGPT הפיק? אתם, לא הכלי. חשוב לוודא שהתוכן לא כולל תכנים שגויים או מוטים.

    • שקלו לבנות נוהל שמגדיר מה מותר להזין ל-ChatGPT ומה אסור, במיוחד בנוגע למידע אישי או רגולטורי רגיש.

    ChatGPT במערכת האיכות

    • באילו תהליכים הכלי משתלב? האם זה תהליך כתיבת מסמכים, תחקור/פעולה מתקנת או תלונות לקוח, או הערכת סיכונים?

    • האם יש צורך בעדכון נהלים קיימים? לדוגמה, הוספת התייחסות ל-AI בפרק של ניהול תצורה או סקירת מסמכים.

    • אם ChatGPT תומך בפיתוח מוצר, חשוב לשלב את זה גם ב-Design and Development File, ולהסביר את ההקשר.

    • שווה גם לבדוק האם סעיף 4.1.6 מ-ISO 13485 (תיקוף תוכנות בשימוש מערכת האיכות) רלוונטי למצב הספציפי שלכם.

    טבלת החלטה לשימוש בכלי AI

    מצב שימוש

    מותר/מותנה/אסור

    תנאים נדרשים

    טיוטה פנימית למסמך

    מותר

    סקירה אנושית חובה

    ניסוח מסמך רגולטורי סופי

    מותנה

    שימוש רק בטקסטים שאושרו מראש + סקירה כפולה

    ניתוח ראשוני של תלונות לקוח

    מותנה

    בקרת איכות כפולה

    שימוש בנתונים מזהים

    אסור

    עובר על תקנות פרטיות

    פורמט להערכת סיכון בשימוש GPT

    • שם התהליך: ____________

    • מטרה: __________________

    • האם הכלי תומך בקבלת החלטות רגולטוריות? כן/לא

    • סיכונים פוטנציאליים: _______________

    • בקרות מיושמות: _____________________

    • אחראי סקירה: _______________________

    שאלות נפוצות (FAQ)

    1. האם אפשר להשתמש ב-ChatGPT לכתיבת IFU? - רק כחומר עזר, לא כתוצר סופי.

    2. איך מסבירים לאודיטור שעשינו שימוש בכלי AI? - דרך תיעוד השיקולים, הערכת הסיכון והבקרות.

    3. האם צריך לעדכן את תיק הפיתוח? - אם ChatGPT שימש כחלק מתהליך הפיתוח - כן, עם תיעוד תמציתי.

    4. איך נוכל להבטיח עקיבות (traceability) כש-ChatGPT לא שומר היסטוריה של התשובות או הגרסאות? - חשוב לנהל לוגים של הגדרות השאלה, תוצאות מרכזיות ומסקנות.

    5. האם עדיף להשתמש במודל פתוח כמו ChatGPT או בכלי פנים-ארגוני (on-prem)? - לכל גישה יתרונות וחסרונות. מערכות סגורות מגבירות שליטה ופרטיות, אבל לפעמים מגבילות את איכות התשובות.

    דוגמאות:

    דוגמה 1: ניסוח ראשוני של CAPA

    צוות האיכות השתמש ב-ChatGPT ליצירת טיוטה ראשונית של תכנית פעולה מתקנת בעקבות תלונת לקוח. הכלי סייע ביצירת שלד ברור ומהיר. לאחר מכן, בוצעה סקירה אנושית שכללה תיקונים במינוח, עדכון ההנחות ושילוב נתונים פנימיים. 

    הסיכון העיקרי שזוהה: ניסוחים כלליים מדי שדורשים חידוד. 

    הבקרה: סקירה כפולה (אישור של שני אנשים).

    דוגמה 2: סיכום מחקר קליני לפגישה רגולטורית

    צוות הרגולציה השתמש ב-ChatGPT כדי לסכם דו"ח מחקר קליני בן 120 עמודים למסמך בן 3 עמודים. היתרון: קיצור זמן משמעותי. 

    הסיכון: השמטה של נתונים קריטיים. 

    הבקרה: השוואה ידנית של עורך מקצועי מול הדו"ח המלא, תוך סימון קטעים שהושמטו.

    דוגמה 3: סיווג תלונות משתמשים

    תלונות משתמשים מתקבלות במגוון תבניות ושפות. ChatGPT שימש ככלי עזר לסיווג ראשוני לפי קטגוריות ניתוח סיכון.

    הסיכון: סיווג שגוי שעלול להוביל לאי-טיפול במקרה מהותי. 

    הפתרון: שילוב תהליך ביקורת של מחלקת האיכות ובניית בסיס נתונים מקביל להשוואה בין סיווג אוטומטי לידני.

    דוגמה 4: תרגום והנגשת הדרכות איכות

    חברה השתמשה ב-ChatGPT כדי לתרגם הדרכות מקצועיות לעובדים במדינות שונות. התרגום שיפר את ההבנה המקומית, אבל דרש התאמות תרבותיות ומונחים רגולטוריים ספציפיים. 

    הבקרה:  אישור של נציג מקומי ובדיקה מול רגולציה רלוונטית.

    דוגמה 5: זיהוי פערים בתיעוד רגולטורי

    צוות הרגולציה העלה סדרת מסמכים של התיק הטכני ל-ChatGPT וביקש לבדוק עקביות בין מסמכים שונים. הכלי הצליח לאתר חוסר התאמה בתאריכים ובשמות קבצים. 

    הסיכון: תלות יתר בתוצאה האוטומטית. 

    הבקרה: בקרה כפולה של בודק איכות עם צ'קליסט מוגדר.

    דוגמה 6: הכנת מענה לשאלות רגולטוריות (Q-Sub, Notified Body)

    ChatGPT שימש בסיס לטיוטת מענה לשאלות שהתקבלו מה-FDA. היתרון: ניסוח מהיר וממוקד. 

    הסיכון: ניסוחים כלליים שאינם מגובים בנתונים או ציטוטים רגולטוריים. 

    הבקרה: הכנסת התייחסויות ממסמכים פנימיים + אישור של איש צוות רגולציה מוסמך.

    לסיכום

    הכלים הג'נרטיביים כאן כדי להישאר. אבל הם מחייבים אותנו לסטנדרט חדש של חשיבה רגולטורית. 

    רוצים לבחון איך לעשות את זה נכון אצלכם? דברו איתי.

    תגובות