T.I.L. :: Today I Learned110 Day 45. 액땜 팀원이 탈주하는 경우를 듣기만 했는데 진짜 내 눈앞에 벌어지다니..! 그냥 일방적으로 잠수를 타셔서 팀에서 이탈 + 항해 이탈..!! 심지어 연락도 저녁에 늦게주셔서 발등에 불난채로 있었다. 급한대로 지금의 프론트 팀원들이 다시 짐을 나눠서 들기로 했고 같이 불침번을 섰다. 그리고 사실 백엔드 작업은 다 끝난 상태여서 프론트에서 서버 에러가 반환되었을 경우 같이 해결하기 위해 있었다. 우리가 목표로 한 내용들은 거의 끝냈고 도전과제로 남은 스프링 배치는 여전히 도전과제로 남아있지만 목표를 다 이뤘다고 생각하니 진이 빠져서 아무것도 하지 못했다. 그리고 이제 찐막으로 실전 프로젝트가 남아있기 때문에 나의 열심을 그 때에 더 들이붓기 위해 모두가 한 걸음 멈춰 있는 기분이었다. 팀원이 탈주하는 경우가 실전 .. 2023. 5. 17. Day 44. 스프링 배치가 도대체 뭐냐 피드백을 받고 와서 우리에게 도전과제로 주어진 것은 '스프링 배치'를 적용하는 것이었다. 그래서 이게 뭐고 왜 쓰는건지 궁금했다. Batch? 일괄이라는 뜻의 단어인데 배치 작업이라는게 데이터를 실시간으로 처리하는게 아니라 '일괄'적으로 모아서 한 번에 처리하는걸 말한다. 매니저님이 말씀해주신 예시로는 은행 점검시간. 은행 점검시간에 그 날 있었던 데이터를 다 모아서 한 번에 처리한다고 한다. 근데 이걸 이제 스프링에서 대용량 데이터 처리에 필수적인 기능들을 부가적으로 함께 제공해주는게 스프링 배치인 것이다. 그리고 스프링 배치에는 스케줄러 기능이 없어서 스케줄러 기능을 사용하려면 Jenkins 같은 전용 스케줄러를 사용해야한다고 한다. 아무리 봐도 어떻게 적용해야할지 감이 안온다 ㅠㅠ https://a.. 2023. 5. 16. Day 43. 피드백은 참 좋은 것 개발을 하다보면 가장 문제인 것이 나도 모르게 내 코드에 매몰된다는 것이다. 그렇다보니 뭐가 문제인지, 어떤게 잘 되어있는지 알지 못한다. 구현되어있는 코드들이 모두 내 자식같아서 순식간에 없애버리고 그러는게 참 아깝다. 그래서 제3자의 눈으로 나의 코드를 뜯어보아야한다. 오늘은 중간 피드백이 있는 날이었다. 우리는 만족하며 구현해놓은 것들에 아쉬운 점이 몇 가지 있었다. 또 내가 어딘가에서 가져온 코드를 완벽히 이해하지 못하고 있는 것도 알았다. 피드백을 받고 나오니 어질어질했는데 다시 한 번 리뷰해야겠다는 생각을 했다. 피드백을 받고 나와서 erd부터 뜯어고쳤다. 우리가 고민하는 것들이 엔티티를 과하게 나누어 파생된 것들이었다. 그냥 한 컬럼에 null값만 허용해준다면 모든 고민이 싹 사라지는거였다... 2023. 5. 15. Day 42. 이제 절반 왔다. 멀리 가려면 같이 달릴 친구가 필요하다. 항해에 들어와서 가장 많이 느낀 것이다. 혼자 고민하며 보내는 시간만큼 성장하는 폭보다 같이 고민하며 보내는 시간의 성장이 더 크다. 그리고 사실 진짜 뛰어난 사람이 아니고서야 다 비슷하다. 그래서 각자가 고민하는 포인트가 대부분 비슷하다. 그렇다보니 함께 모여서 원기옥을 모으다보면 훨씬 더 빨리 해결이 된다. 이래서 협업이라는 것이 정말 중요하다고 하는 것 같다. 혼자서만 공부해야하는 상황이었다면 난 벌써 항해 그만두고도 남았을 듯 .. 1. 스터디 운이 좋게도 랜덤으로 만난 팀원들이 전부 열정이 넘치는 사람들이라 좋은 기회가 되어 스터디를 거의 두 달째 하고 있다. 스터디를 하면서 '자바의 정석' 처음으로 다 보았다. 그리고 지금은 또 다른 인강으로 같이 스터.. 2023. 5. 14. Day 41. 크롤링 하다 머리깨진 썰 이번 프로젝트의 큰 가닥 중의 하나는 데이터 크롤링이다. 영화진흥위원회의 open API 를 사용해서 데이터를 가져올까도 고민했지만 우리가 목표한 왓챠 클론 코딩을 위해서는 크롤링해오는 것이 더 높은 싱크로율을 보여줄거라 생각했다. 또 왓챠만의 평점, 추천작 등 알고리즘을 우리가 알 수 없기 때문에 기본 정보로 가져오려고 했다. 지난 번에는 팀에 크롤링을 할 줄 아는 분이 있어서 파이썬으로 간단히 셀레니움을 사용해 데이터를 가져왔는데 이번엔 자바로 도전해보고 싶었고 스프링 배치와 스케줄러를 사용해서 주기적으로 정보를 업데이트 해보고 싶은 목표가 있었다. 데이터 크롤링을 하기 위해서 사용할 수 있는 라이브러리는 Jsoup 과 Selenium이 있다. 큰 차이로는 Jsoup은 정적 페이지를 파싱할 수 있고 .. 2023. 5. 13. Day 40. 앗챠 만들기 시작! 오늘부터 클론코딩 시작이다. 이번주까지 가벼운 토이 프로젝트를 끝내면 다음주부터는 이제 실전 프로젝트에 들어가기 때문에 warm-up 하면서 마지막으로 한 번 정리를 하고 넘어갈 필요가 있다고 생각한다. 처음으로 모임을 갖고 아이디어 회의를 했다. 이번에도 역시 프론트엔드의 기준에서 조금이라도 더 많은 기능을 구현을 해볼 수 있는 것을 선택하기로 했다. 백엔드의 구조는 DB 설계만 잘 해주면 어떤 프로젝트여도 문제가 없을 것이라고 느꼈다. 그렇게 회의를 거쳐서 우리는 왓챠를 클론코딩 하기로 했다. (뭔가를 많이 놓칠 예정이라 이름은 앗챠..!) ER 다이어그램을 이렇게 구성해보았는데, 지난번 프로젝트보다 엔티티만 방대해졌다. 아무래도 이번 기회에 연관관계에 대해 제대로 배우고 넘어가야지 싶다. 계속해서 .. 2023. 5. 12. 이전 1 ··· 6 7 8 9 10 11 12 ··· 19 다음 320x100