Artwork

תוכן מסופק על ידי Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young and Sujit D'Mello, Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young, and Sujit D'Mello. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young and Sujit D'Mello, Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young, and Sujit D'Mello או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !

Episode 502 - Azure Open AI and Security

 
שתפו
 

Manage episode 434437195 series 65604
תוכן מסופק על ידי Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young and Sujit D'Mello, Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young, and Sujit D'Mello. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young and Sujit D'Mello, Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young, and Sujit D'Mello או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

Azure Open AI is widely used in industry but there are number of security aspects that must be taken into account when using the technology. Luckily for us, Audrey Long, a Software Engineer at Microsoft, security expert and renowned conference speaker, gives us insights into securing LLMs and provides various tips, tricks and tools to help developers use these models safely in their applications.

Media file: https://azpodcast.blob.core.windows.net/episodes/Episode502.mp3

YouTube: https://youtu.be/64Achcz97PI

Resources:

AI Tooling:

  1. Azure AI Tooling Announcing new tools in Azure AI to help you build more secure and trustworthy generative AI applications | Microsoft Azure Blog
    • Prompt Shields to detect and block prompt injection attacks, including a new model for identifying indirect prompt attacks before they impact your model, coming soon and now available in preview in Azure AI Content Safety.
    • Groundedness detection to detect “hallucinations” in model outputs, coming soon.
    • Safety system messagesto steer your model’s behavior toward safe, responsible outputs, coming soon.
    • Safety evaluations to assess an application’s vulnerability to jailbreak attacks and to generating content risks, now available in preview.
    • Risk and safety monitoring to understand what model inputs, outputs, and end users are triggering content filters to inform mitigations, coming soon, and now available in preview in Azure OpenAI Service.
  2. AI Defender for Cloud
  3. AI Red Teaming Tool

AI Development Considerations:

  1. AI Assessment from Microsoft
  2. Microsoft Responsible AI Processes
  3. Define Use Case and Model Architecture
  4. Content Filtering System
  5. Red Teaming the LLM
  6. Create a Threat Model with OWASP Top 10

Other updates:

  continue reading

380 פרקים

Artwork
iconשתפו
 
Manage episode 434437195 series 65604
תוכן מסופק על ידי Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young and Sujit D'Mello, Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young, and Sujit D'Mello. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young and Sujit D'Mello, Cynthia Kreng, Kendall Roden, Cale Teeter, Evan Basalik, Russell Young, and Sujit D'Mello או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

Azure Open AI is widely used in industry but there are number of security aspects that must be taken into account when using the technology. Luckily for us, Audrey Long, a Software Engineer at Microsoft, security expert and renowned conference speaker, gives us insights into securing LLMs and provides various tips, tricks and tools to help developers use these models safely in their applications.

Media file: https://azpodcast.blob.core.windows.net/episodes/Episode502.mp3

YouTube: https://youtu.be/64Achcz97PI

Resources:

AI Tooling:

  1. Azure AI Tooling Announcing new tools in Azure AI to help you build more secure and trustworthy generative AI applications | Microsoft Azure Blog
    • Prompt Shields to detect and block prompt injection attacks, including a new model for identifying indirect prompt attacks before they impact your model, coming soon and now available in preview in Azure AI Content Safety.
    • Groundedness detection to detect “hallucinations” in model outputs, coming soon.
    • Safety system messagesto steer your model’s behavior toward safe, responsible outputs, coming soon.
    • Safety evaluations to assess an application’s vulnerability to jailbreak attacks and to generating content risks, now available in preview.
    • Risk and safety monitoring to understand what model inputs, outputs, and end users are triggering content filters to inform mitigations, coming soon, and now available in preview in Azure OpenAI Service.
  2. AI Defender for Cloud
  3. AI Red Teaming Tool

AI Development Considerations:

  1. AI Assessment from Microsoft
  2. Microsoft Responsible AI Processes
  3. Define Use Case and Model Architecture
  4. Content Filtering System
  5. Red Teaming the LLM
  6. Create a Threat Model with OWASP Top 10

Other updates:

  continue reading

380 פרקים

כל הפרקים

×
 
Loading …

ברוכים הבאים אל Player FM!

Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.

 

מדריך עזר מהיר