안녕하세요, 이번 주 처음 인턴으로 입사하게 된 한철희입니다.
AI/AX를 배우고 이를 실무에 처음으로 적용하게 되었는데, 처음에는 막막했고 어디서부터 시작해야 할지 고민이 많았습니다. 하지만 일의 흐름이나 문서 작성 과정에서 사람이 하기에는 양이 많고 AI가 충분히 처리할 수 있는 일들을 먼저 살펴보았습니다.
그중 가장 눈에 띈 것은 위픽레터에 있는 글들을 읽고 알맞은 기준으로 글들을 분류하는 작업이었습니다.
가장 먼저 홈페이지 API로부터 콘텐츠 목록을 주기적으로 수집하고, AI 분석을 거쳐 전략적 가치가 부여된 데이터를 구글 Sheet에 실시간으로 기록하는 시스템을 구현하는 것을 목표로 설정했습니다.
이 과정에서 AI가 단순히 글을 읽는 것을 넘어 정확하고 정해진 답변을 해야 Sheet에 원하는 결과를 얻을 수 있기에, 다음과 같이 검증 단계를 거쳤습니다.
- AI 답변을 JSON 형태로만 출력하도록 강제했습니다.
- AI가 글을 제대로 읽고 있는지 확인하기 위해 글의 요약까지 함께 출력하도록 요청했습니다.
본격적으로 글을 AI에게 읽게 하는 방법을 고민했습니다. n8n의 HTTP Request를 통해 홈페이지 API를 가져오니, 한 페이지에 20개의 글만을 가져올 수 있다는 제약이 있었습니다.
저는 모든 페이지의 글들을 가져오기 위해 API 주소에 포함된 page 번호를 변수로 설정하고, n8n 노드들을 통해 이 값이 1씩 증가하게 하여 모든 글을 가져올 수 있도록 시도했습니다.
- 처음에는 loop 노드를 통해 20개의 글을 하나씩 Sheet에 옮기고, 다음 페이지도 20개씩 loop를 돌리려 했으나, loop 노드가 한 번 돈 뒤로는 반복 실행되지 않는 단점에 직면했습니다.
- 결국 모든 페이지의 글들을 API 호출을 통해 한 번에 가져와서 이 전체 목록을 대상으로 loop를 돌려 하나씩 Sheet에 삽입하는 방식으로 문제를 해결하였습니다.
처음 하는 실무라 많이 어색했고 모르는 부분도 많았지만, 난관에 도달했을 때 알고리즘을 수정하거나 새로운 발상을 통해 해결해 가는 과정이 매우 좋았습니다. 또한, 이러한 문제 해결 과정은 단순한 과제 수행이 아닌, 목표했던 AI/AX 기술을 실질적으로 사용해본 귀중한 경험이 된 것 같습니다.
다음 주에는 금주에 구축한 AI/AX 기반 데이터 처리 역량을 확장하여, 외부 광고 콘텐츠 자동 분석 및 카피라이팅 프로젝트를 진행할 계획입니다.