Cursor AI를 처음 써봤다.
테스트 삼아 지난 6개월간 귀찮아서 안 했던 개인 프로젝트를 맡겨봤는데…
5분도 안 걸려서 구현이 끝났다.
사실 이 프로젝트는 serialize/deserialize 관련된 코드였고,
실수로 이 두 개념을 착각해서 거꾸로 스크립트를 입력했다.
Cursor AI는 내가 써준 대로 코드를 그대로 작성했다.
문제는 이게 일반적인 개념이라,
“혹시 이거 반대로 생각한 거 아님?” 하고 물어볼 수도 있었을 것 같은데,
묻지 않았다.
내가 “이거 혹시 내가 잘못한 거 아냐?” 하고 물어보니
그제야 “맞아요, 반대네요” 하고 알려줬다.
멍청한 스크립트는 멍청한 코드를 낳는다.
스크립트의 중요성을 다시 한번 실감했다.
IntelliJ Copilot vs Cursor AI
기존엔 IntelliJ의 코파일럿을 써왔는데,
이건 이름 그대로, 내가 파일럿이고 AI가 코파일럿이라는 느낌이다.
결국 내가 조종하고, AI는 옆에서 조언하거나 짜주는 정도.
그런데 Cursor AI는 다르다.
Agent 기반이라 그런지, 얘는 자기가 파일럿이고,
나는 뭔가 관제사에 더 가까운 느낌이다.
쭉쭉 자신감 있게 코드를 작성하고, 테스트 코드도 알아서 만들고,
테스트가 fail나면 고치는 것까지 전부 AI가 해버린다.
너무 잘하니까 뭔가 믿음이 간다.
하지만 문제는…
내가 리뷰를 안 하게 된다.
(잘 짰겠지 뭐...)
이게 반복되다 보니 껄쩍지근한 기분이 남고,
그래서 테스트 코드 쪽에 더 공을 들이게 된다.
물론 이 테스트 코드조차 AI가 짜지만, “어떤 식으로 검증해야 할까?” 같은 얘기를 더 하게 된다.
결국:
Agent 기반 AI를 쓸 땐, 코드 자체보다는 검증 전략을 더 잘 짜야 한다.
신기했던 점
Cursor AI는 열려 있는 프로젝트 외부 작업도 가능하다.
기존 AI들은 대부분 내가 복붙하거나 직접 실행시켜야 했는데,
Cursor는 개발 외적인 작업도 그냥 해버린다.
개인 프로젝트를 빌드하고, Maven repo에 올리는 것까지 AI가 해줬다.
내 컴퓨터에 Maven 관련 환경이 갖춰져 있어서 가능했을 수도 있긴 한데…
어쨌든 AI가 알아서 함
심지어 프로젝트 결과를 검증하기 위한 독립적인 프로젝트도 생성해서,
그 안에 현재 프로젝트를 의존성으로 추가하고,
테스트 코드로 확인까지 완료
알고리즘도?
간단한 알고리즘 문제도 시켜봤는데,
순식간에 해결.
그런데, 너무 순식간에 문제를 풀어버리니, 뭔가 알고리즘 공부가 되지는 않는다.
결론적으로,
Cursor AI는 개발 효율을 폭발적으로 높여주는 도구다.
하지만 그만큼 AI가 짠 코드를 검증하고 통제할 전략도 같이 고민해야 한다.
그렇지 않으면 내가 작성한 스크립트 수준에 따라
코드의 품질이 좌우될 수 있다.
그리고 진짜 중요한 거 하나:
AI는 똑똑하지만, 내 실수를 지적해주진 않는다.
'MEDIUMTEXT' 카테고리의 다른 글
Jackson 을 이용한 직렬화/역직렬화 (0) | 2024.11.16 |
---|---|
firebase에서 개인정보처리방침 만들기 (0) | 2024.11.10 |
Android의 room을 이용하여 sqlite 사용하기 (0) | 2024.10.20 |
안드로이드에서 admob을 이용하여 배너 광고 추가 하기 (0) | 2024.10.15 |
admob에서 앱 ID 만드는 방법 (0) | 2024.10.14 |