해결된 질문
작성
·
75
0
제가 실수로 robots.txt를 robot.txt로 잘못 올렸고
User-agent: *
Disallow::
내부 파일도 이렇게 잘못 작성했더니 lighthouse에서 잘못되었다고 지적하더라고요.
근데 새로 수정하고 빌드해서 올렸고
AWS s3내부에선 정상적인 파일이 올라간 것으로 확인되는데 아직도 그대로더라고요.
어떻게 최신화가 가능할까요?
답변 1
1
안녕하세요.
해당 최신화는 AWS의 CloudFront
에서 Invalidation
(무효화)를 통해서 하실 수 있어요.
관련 내용은 섹션5 - 41번 영상 - CloudFront 무효화 부분을 참고 부탁드려요!
아 이게 그런 내용이였군요! 이제 이해가 됩니다. 감사합니다!