MCP 도구를 사용하는 AI 에이전트의 보안은 어떻게 관리하고 계신가요?
hackernews
|
|
{'이벤트': '📰', '머신러닝/연구': '📰', '하드웨어/반도체': '📰', '취약점/보안': '📰', '기타 AI': '📰', 'AI 딜': '📰', 'AI 모델': '📰', 'AI 서비스': '📰', 'discount': '📰', 'news': '📰', 'review': '📰', 'tip': '📰'} 하드웨어/반도체
#ai 연동
#도구 연결
#하드웨어/반도체
요약
다른 분들은 MCP에 연결된 에이전트의 에이전트 보안 문제를 어떻게 접근하고 계신지 궁금합니다. 웹사이트나 기타 API에서 가져온 원시 데이터를 아무런 정제 과정 없이 처리하는 외부 도구들이 있는데, 시스템 명령어와 도구가 반환한 결과물 사이에 아무런 구분이 없습니다. 이 간극을 메워줄 기존 도구나 서비스가 있는지 궁금합니다.<p>도구의 응답 트래픽이 모델에 도달하기 전에 이를 모니터링하거나 필터링하기 위한 조치를 취하고 계신가요? 격리된 환경에서 실행하고 계신가요? 도구의 모든 출력을 신뢰할 수 없는 것으로 간주하고 계신가요?
왜 중요한가
본문
Curious how others are thinking about approaching agentic security for MCP connected agents. External tools processing raw data from websites or other APIs with no sanitization.
There is no distinction between system instructions and whatever the tool pulled back. Wondering if there is an existing tool or service that fills that gap.<p>Are you doing anything to monitor or filter tool response traffic before it hits the model? Running in isolated environments? Treating all tool output as untrusted?</p><p>Building something in this space and trying to understand how the community is approaching this (if at all?)</p>
There is no distinction between system instructions and whatever the tool pulled back. Wondering if there is an existing tool or service that fills that gap.<p>Are you doing anything to monitor or filter tool response traffic before it hits the model? Running in isolated environments? Treating all tool output as untrusted?</p><p>Building something in this space and trying to understand how the community is approaching this (if at all?)</p>