생성형 AI 활용 연구 이슈 - Songwooseok123/Study_Space GitHub Wiki
생성형 AI 활용 연구 도구
- chat gpt : 4는 유료인데 bing검색들어감
- open ai에서 만듬
- bard
- 구글 ai에서 만듬
- 뤼튼 : 무료로 gpt4기반 됨
- open ai에서 만듬
- gitmind 짱 좋네
- 마인드맵
- 논문 탐색 및 분석 타입셋
사이버 보안 이슈
챗GPT의 등장과 함께 생성형AI 기술이 각광을 받고 있지만, 한편으로 보안 전문가들은 이러한 기술을 악용한 소스코드 취약점 공격 코드 생성, 로그인 툴 작성, 웹 침투, 변종 악성코드 작성, 피싱 이메일 작성 등 새로운 사이버공격의 출현을 경고하고 있습니다. 더 나아가 딥페이크 기술을 이용한 영상이나 보이스 피싱 작성을 누구나 할 수 있는 시대가 되면서, 좀 더 넓은 범위의 사이버보안을 위한 제품 개발이 필요한 때입니다.
또 하나의 새로운 이슈는 AI 자체의 보안입니다. 최근 연구에 따르면 AI모델에 대해서도 다양한 공격이 가능하다고 하는데요. 예를 들면 (1) 입력을 변조하여 AI의 오동작을 일으키는 회피 공격, (2) AI 모델을 무단 복제하는 AI 모델 추출 공격, (3) 특정 오동작을 유도하도록 의도적으로 오염된 데이터를 제공하는 데이터 오염 공격, (4) 사용자에게 특정 입력 트리거에 작동하는 백도어를 삽입한 모델을 공급하는 AI백도어 공격, (5) AI 모델로부터 민감한 정보를 추출하거나 특정 데이터가 학습에 사용되었는지 여부를 탐지하는 학습 데이터 추출 공격, (6) 운용 컴퓨터에서 AI모델의 구조와 파라미터의 값을 추출하는 부채널 공격 등이 있습니다. 많은 기업이 AI를 보안 솔루션에 도입하는 현 시점에 AI의 신뢰성이 깨진다면 큰 손실이 발생할 수밖에 없습니다. 따라서 앞으로는 AI 자체의 보안 이슈도 보안 솔루션 개발에 반드시 고려해야 할 점이라 할 수 있습니다.
향상된 이메일 보안을 위한 AI의 도입은 거스를 수 없는 흐름입니다. 특히 나날이 발전하는 AI 기술은 자칫 사이버 공격의 급격한 활성화와 해킹의 저변 확대를 불러올 우려가 있는데요. 그렇기 때문에 앞으로는 보안 및 AI 전문가들이 협업하여 더욱 정교한 AI 기반 사이버보안 기술을 개발하여 대비해야 하며, 기업에서도 비즈니스의 성격과 조직의 규모 등을 고려해 적합한 사이버 보안 솔루션을 채택해 적극적으로 활용할 필요가 있습니다.
furiosa
-
furiosa : chat gpt를 위한 반도체 ai
생성 llm ai 사용할 수록 inference 비용 부담 증가
- gpu 고전력 구조 :
- 수천개의 thread를 사용하여 dram latency를 감주고, 높은 throughput달성
- on-chip cache 보다 computation 리소스 집적
- llm infernece을 위한 고성능 ai 반도체 요건
- 사용자 요구 성능
- gpt3급
- 50token/s 수준의 속도 성능
- 사용자 요구 성능
- gpu 고전력 구조 :