묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결자바 ORM 표준 JPA 프로그래밍 - 기본편
MySQL Dialect 커스텀 관련해서 문의드립니다. (group_concat)
안녕하세요. 영한님 오랜만에 인사드립니다. MySQL Dialect 중 하나인 group_concat을 추가하여 사용해야 하는 상황이라.. 다음과 같이 Custom을 만들고 프로퍼티로 해당 CustomDialect까지 등록되어 정상 동작하는 상황입니다. public class CustomMySQL57Dialect extends MySQL57Dialect { public CustomMySQL57Dialect() { registerFunction("GROUP_CONCAT", new StandardSQLFunction("group_concat", StandardBasicTypes.STRING)); } } 문제는, Native Query로는 `GROUP_CONCAT(DISTINCT xxx)` 처럼 사용이 가능하나, QueryDSL을 이용한 상황에서 해당 DISTINCT가 동작하지 않습니다.. 위와 같은 상황을 겪어보셨을 지 않을까 싶어 여쭤봅니다! QueryDSL 코드 중 일부는 다음과 같습니다. select(Projections.constructor(PaymentFilterConditionDTO.class, transaction.merchantMemberNo, Expressions.stringTemplate("group_concat(DISTINCT {0})", new CaseBuilder().when(transaction.userType.eq(UserType.LINE_PAY)) .then(transaction.transactionType.stringValue() .concat(transaction.paymentMethod.stringValue())) .otherwise(transaction.transactionType.stringValue().concat(transaction.paymentMethod.stringValue()) .concat(SUFFIX_AFFILIATE))))) from(...) where(...) 위의 QueryDSL 코드에서 DISTINCT가 제외되면 예외없이 동작하구요. DISTINCT가 있을 때는 다음과 같이 예외가 발생합니다. - unexpected token : group_concat - unexpected token : DISTINCT 항상 도움주셔서 다시 한 번 감사합니다.
-
미해결[리뉴얼] 처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화 전과정 익히기) [데이터분석/과학 Part1]
10분 부분 질문드립니다.
안녕하세요 매번 질문드려ㅜ죄송합니다 ㅠㅠ doc_final_country = doc_final_country[cols] 문법이 어떻게 작용하는 거죠? 뜻하는 바도 궁금합니다. 컬럼명을 바꿀때는 보통 프레임.columns = 리스트 로 한다고 배웟는데, 처음 보는 경우같아서 질문드립니다. 궁금해서ㅜ제가 따로 데이터프레임을 만들고, 리스트를 만들어어서 동일하게 대입해봤을때는 에러가 뜨네요...
-
미해결프로그래밍 시작하기 : 파이썬 입문 (Inflearn Original)
for 구문(2-1)에서 for 구문(2-2)
for 구문(2-1)에서 for 구문(2-2) 갑자기 예제1번에서 예제4번으로 넘어가던데 저만 그런가요? 중간에 강의내용 빠진 것 같은데... 예제 2, 3번에 대한 내용은 없어요.
-
미해결15일간의 빅데이터 파일럿 프로젝트
선생님, 질문이 있습니다!
어제 hbase 적재 이후 적당한 쿼리를 입력하면서 잘 따라하고 있었는데요.. 처음 쉬운 쿼리 몇개는 잘 동작되다가 갑자기 마지막 쿼리(강의 영상 중) 서버에 문제가 생겼다고 긴 메세지가 뜨면서 튕기고있습니다!이와 동시에 포트 16010 이쪽도 서버가 죽었다고 나오는데요... 그래서 다시 hbase shell 접속후 확인해보면 다시 같은 문제가 발생합니다. 물론 오늘 제가 다시 해보면서 해결할 생각이지만 혹시 모르니 아래 메세지 확인후 도와주시면 정말 정말 감사할 것 같아요!! 감사합니다:) 04002130106102-S0001 column=cf1:area_number, timestamp=1620222187986, value=C01 04002130106102-S0001 column=cf1:car_number, timestamp=1620222187986, value=S0001 04006030106102-F0004 column=cf1:area_number, timestamp=1620221075233, value=C01 04006030106102-F0004 column=cf1:car_number, timestamp=1620221075233, value=F0004 04006030106102-R0010 column=cf1:area_number, timestamp=1620221077774, value=C01 04006030106102-R0010 column=cf1:car_number, timestamp=1620221077774, value=R0010 04007030106102-R0010 column=cf1:area_number, timestamp=1620221258521, value=C01 04007030106102-R0010 column=cf1:car_number, timestamp=1620221258521, value=R0010 04008030106102-R0010 column=cf1:area_number, timestamp=1620221447624, value=C01 04008030106102-R0010 column=cf1:car_number, timestamp=1620221447624, value=R0010 04018030106102-W0003 column=cf1:area_number, timestamp=1620221477673, value=C01 04018030106102-W0003 column=cf1:car_number, timestamp=1620221477673, value=W0003 04020030106102-S0001 column=cf1:area_number, timestamp=1620220033655, value=C01 04020030106102-S0001 column=cf1:car_number, timestamp=1620220033655, value=S0001 04021030106102-F0004 column=cf1:area_number, timestamp=1620220218763, value=C01 04021030106102-F0004 column=cf1:car_number, timestamp=1620220218763, value=F0004 04022030106102-R0010 column=cf1:area_number, timestamp=1620220402111, value=C01 04022030106102-R0010 column=cf1:car_number, timestamp=1620220402111, value=R0010 04023030106102-S0001 column=cf1:area_number, timestamp=1620220585394, value=C01 04023030106102-S0001 column=cf1:car_number, timestamp=1620220585394, value=S0001 04025030106102-W0003 column=cf1:area_number, timestamp=1620220955061, value=C01 04025030106102-W0003 column=cf1:car_number, timestamp=1620220955061, value=W0003 04028030106102-S0001 column=cf1:area_number, timestamp=1620221510655, value=C01 04028030106102-S0001 column=cf1:car_number, timestamp=1620221510655, value=S0001 04032030106102-F0004 column=cf1:area_number, timestamp=1620220432140, value=C01 04032030106102-F0004 column=cf1:car_number, timestamp=1620220432140, value=F0004 04032030106102-R0010 column=cf1:area_number, timestamp=1620220432244, value=C01 04032030106102-R0010 column=cf1:car_number, timestamp=1620220432244, value=R0010 04032130106102-R0010 column=cf1:area_number, timestamp=1620222283736, value=C01 04032130106102-R0010 column=cf1:car_number, timestamp=1620222283736, value=R0010 04032130106102-W0003 column=cf1:area_number, timestamp=1620222281189, value=C01 04032130106102-W0003 column=cf1:car_number, timestamp=1620222281189, value=W0003 04033030106102-W0003 column=cf1:area_number, timestamp=1620220615511, value=C01 04033030106102-W0003 column=cf1:car_number, timestamp=1620220615511, value=W0003 04034030106102-R0010 column=cf1:area_number, timestamp=1620220798841, value=C01 04034030106102-R0010 column=cf1:car_number, timestamp=1620220798841, value=R0010 04035030106102-F0004 column=cf1:area_number, timestamp=1620220985272, value=C01 04035030106102-F0004 column=cf1:car_number, timestamp=1620220985272, value=F0004 java.net.SocketTimeoutException: callTimeout=60000, callDuration=62676: Failed after attempts=8, exceptions: Wed May 05 22:45:51 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, java.net.ConnectException: Call to server02.hadoop.com/192.168.56.102:16020 failed on connection exception: org.apache.hbase.thirdparty.io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:51 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, org.apache.hadoop.hbase.ipc.FailedServerException: Call to server02.hadoop.com/192.168.56.102:16020 failed on local exception: org.apache.hadoop.hbase.ipc.FailedServerException: This server is in the failed servers list: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:51 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, org.apache.hadoop.hbase.ipc.FailedServerException: Call to server02.hadoop.com/192.168.56.102:16020 failed on local exception: org.apache.hadoop.hbase.ipc.FailedServerException: This server is in the failed servers list: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:51 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, org.apache.hadoop.hbase.ipc.FailedServerException: Call to server02.hadoop.com/192.168.56.102:16020 failed on local exception: org.apache.hadoop.hbase.ipc.FailedServerException: This server is in the failed servers list: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:52 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, org.apache.hadoop.hbase.ipc.FailedServerException: Call to server02.hadoop.com/192.168.56.102:16020 failed on local exception: org.apache.hadoop.hbase.ipc.FailedServerException: This server is in the failed servers list: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:53 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, java.net.ConnectException: Call to server02.hadoop.com/192.168.56.102:16020 failed on connection exception: org.apache.hbase.thirdparty.io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:55 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, java.net.ConnectException: Call to server02.hadoop.com/192.168.56.102:16020 failed on connection exception: org.apache.hbase.thirdparty.io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:59 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, java.net.ConnectException: Call to server02.hadoop.com/192.168.56.102:16020 failed on connection exception: org.apache.hbase.thirdparty.io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: server02.hadoop.com/192.168.56.102:16020 row '' on table 'DriverCarInfo' at region=DriverCarInfo,,1620216526637.d4206de09025ad8786e7fe1c35fea90e., hostname=server02.hadoop.com,16020,1620216046538, seqNum=2 at org.apache.hadoop.hbase.client.RpcRetryingCallerImpl.callWithRetries(RpcRetryingCallerImpl.java:159) at org.apache.hadoop.hbase.client.ResultBoundedCompletionService$QueueingFuture.run(ResultBoundedCompletionService.java:80) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) at java.lang.Thread.run(Thread.java:748) Caused by: org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed after attempts=8, exceptions: Wed May 05 22:45:51 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, java.net.ConnectException: Call to server02.hadoop.com/192.168.56.102:16020 failed on connection exception: org.apache.hbase.thirdparty.io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:51 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, org.apache.hadoop.hbase.ipc.FailedServerException: Call to server02.hadoop.com/192.168.56.102:16020 failed on local exception: org.apache.hadoop.hbase.ipc.FailedServerException: This server is in the failed servers list: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:51 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, org.apache.hadoop.hbase.ipc.FailedServerException: Call to server02.hadoop.com/192.168.56.102:16020 failed on local exception: org.apache.hadoop.hbase.ipc.FailedServerException: This server is in the failed servers list: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:51 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, org.apache.hadoop.hbase.ipc.FailedServerException: Call to server02.hadoop.com/192.168.56.102:16020 failed on local exception: org.apache.hadoop.hbase.ipc.FailedServerException: This server is in the failed servers list: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:52 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, org.apache.hadoop.hbase.ipc.FailedServerException: Call to server02.hadoop.com/192.168.56.102:16020 failed on local exception: org.apache.hadoop.hbase.ipc.FailedServerException: This server is in the failed servers list: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:53 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, java.net.ConnectException: Call to server02.hadoop.com/192.168.56.102:16020 failed on connection exception: org.apache.hbase.thirdparty.io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:55 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, java.net.ConnectException: Call to server02.hadoop.com/192.168.56.102:16020 failed on connection exception: org.apache.hbase.thirdparty.io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: server02.hadoop.com/192.168.56.102:16020 Wed May 05 22:45:59 KST 2021, RpcRetryingCaller{globalStartTime=1620222351334, pause=100, maxAttempts=8}, java.net.ConnectException: Call to server02.hadoop.com/192.168.56.102:16020 failed on connection exception: org.apache.hbase.thirdparty.io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: server02.hadoop.com/192.168.56.102:16020 at org.apache.hadoop.hbase.client.RpcRetryingCallerImpl.callWithRetries(RpcRetryingCallerImpl.java:145) at org.apache.hadoop.hbase.client.HTable.get(HTable.java:386) at org.apache.hadoop.hbase.client.HTable.get(HTable.java:360) at org.apache.hadoop.hbase.MetaTableAccessor.getTableState(MetaTableAccessor.java:1078) at org.apache.hadoop.hbase.client.ConnectionImplementation.getTableState(ConnectionImplementation.java:1970) at org.apache.hadoop.hbase.client.ConnectionImplementation.isTableDisabled(ConnectionImplementation.java:605) at org.apache.hadoop.hbase.client.ConnectionImplementation.relocateRegion(ConnectionImplementation.java:731) at org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas.getRegionLocations(RpcRetryingCallerWithReadReplicas.java:328) at org.apache.hadoop.hbase.client.ScannerCallable.prepare(ScannerCallable.java:139) at org.apache.hadoop.hbase.client.ScannerCallableWithReplicas$RetryingRPC.prepare(ScannerCallableWithReplicas.java:399) at org.apache.hadoop.hbase.client.RpcRetryingCallerImpl.callWithRetries(RpcRetryingCallerImpl.java:105) ... 4 more Caused by: java.net.ConnectException: Call to server02.hadoop.com/192.168.56.102:16020 failed on connection exception: org.apache.hbase.thirdparty.io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: server02.hadoop.com/192.168.56.102:16020 at org.apache.hadoop.hbase.ipc.IPCUtil.wrapException(IPCUtil.java:178) at org.apache.hadoop.hbase.ipc.AbstractRpcClient.onCallFinished(AbstractRpcClient.java:390) at org.apache.hadoop.hbase.ipc.AbstractRpcClient.access$100(AbstractRpcClient.java:95) at org.apache.hadoop.hbase.ipc.AbstractRpcClient$3.run(AbstractRpcClient.java:410) at org.apache.hadoop.hbase.ipc.AbstractRpcClient$3.run(AbstractRpcClient.java:406) at org.apache.hadoop.hbase.ipc.Call.callComplete(Call.java:103) at org.apache.hadoop.hbase.ipc.Call.setException(Call.java:118) at org.apache.hadoop.hbase.ipc.BufferCallBeforeInitHandler.userEventTriggered(BufferCallBeforeInitHandler.java:92) at org.apache.hbase.thirdparty.io.netty.channel.AbstractChannelHandlerContext.invokeUserEventTriggered(AbstractChannelHandlerContext.java:326) at org.apache.hbase.thirdparty.io.netty.channel.AbstractChannelHandlerContext.invokeUserEventTriggered(AbstractChannelHandlerContext.java:312) at org.apache.hbase.thirdparty.io.netty.channel.AbstractChannelHandlerContext.fireUserEventTriggered(AbstractChannelHandlerContext.java:304) at org.apache.hbase.thirdparty.io.netty.channel.DefaultChannelPipeline$HeadContext.userEventTriggered(DefaultChannelPipeline.java:1426) at org.apache.hbase.thirdparty.io.netty.channel.AbstractChannelHandlerContext.invokeUserEventTriggered(AbstractChannelHandlerContext.java:326) at org.apache.hbase.thirdparty.io.netty.channel.AbstractChannelHandlerContext.invokeUserEventTriggered(AbstractChannelHandlerContext.java:312) at org.apache.hbase.thirdparty.io.netty.channel.DefaultChannelPipeline.fireUserEventTriggered(DefaultChannelPipeline.java:924) at org.apache.hadoop.hbase.ipc.NettyRpcConnection.failInit(NettyRpcConnection.java:179) at org.apache.hadoop.hbase.ipc.NettyRpcConnection.access$500(NettyRpcConnection.java:71) at org.apache.hadoop.hbase.ipc.NettyRpcConnection$3.operationComplete(NettyRpcConnection.java:267) at org.apache.hadoop.hbase.ipc.NettyRpcConnection$3.operationComplete(NettyRpcConnection.java:261) at org.apache.hbase.thirdparty.io.netty.util.concurrent.DefaultPromise.notifyListener0(DefaultPromise.java:502) at org.apache.hbase.thirdparty.io.netty.util.concurrent.DefaultPromise.notifyListeners0(DefaultPromise.java:495) at org.apache.hbase.thirdparty.io.netty.util.concurrent.DefaultPromise.notifyListenersNow(DefaultPromise.java:474) at org.apache.hbase.thirdparty.io.netty.util.concurrent.DefaultPromise.notifyListeners(DefaultPromise.java:415) at org.apache.hbase.thirdparty.io.netty.util.concurrent.DefaultPromise.setValue0(DefaultPromise.java:540) at org.apache.hbase.thirdparty.io.netty.util.concurrent.DefaultPromise.setFailure0(DefaultPromise.java:533) at org.apache.hbase.thirdparty.io.netty.util.concurrent.DefaultPromise.tryFailure(DefaultPromise.java:114) at org.apache.hbase.thirdparty.io.netty.channel.nio.AbstractNioChannel$AbstractNioUnsafe.fulfillConnectPromise(AbstractNioChannel.java:327) at org.apache.hbase.thirdparty.io.netty.channel.nio.AbstractNioChannel$AbstractNioUnsafe.finishConnect(AbstractNioChannel.java:343) at org.apache.hbase.thirdparty.io.netty.channel.nio.NioEventLoop.processSelectedKey(NioEventLoop.java:665) at org.apache.hbase.thirdparty.io.netty.channel.nio.NioEventLoop.processSelectedKeysOptimized(NioEventLoop.java:612) at org.apache.hbase.thirdparty.io.netty.channel.nio.NioEventLoop.processSelectedKeys(NioEventLoop.java:529) at org.apache.hbase.thirdparty.io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:491) at org.apache.hbase.thirdparty.io.netty.util.concurrent.SingleThreadEventExecutor$5.run(SingleThreadEventExecutor.java:905) at org.apache.hbase.thirdparty.io.netty.util.concurrent.FastThreadLocalRunnable.run(FastThreadLocalRunnable.java:30) ... 1 more Caused by: org.apache.hbase.thirdparty.io.netty.channel.AbstractChannel$AnnotatedConnectException: Connection refused: server02.hadoop.com/192.168.56.102:16020 at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:717) at org.apache.hbase.thirdparty.io.netty.channel.socket.nio.NioSocketChannel.doFinishConnect(NioSocketChannel.java:327) at org.apache.hbase.thirdparty.io.netty.channel.nio.AbstractNioChannel$AbstractNioUnsafe.finishConnect(AbstractNioChannel.java:340) ... 7 more Caused by: java.net.ConnectException: Connection refused ... 11 more ERROR: Connection refused For usage try 'help "scan"'
-
미해결Slack 클론 코딩[실시간 채팅 with React]
슬랙 클론 코딩 관련 백엔드 강좌는 언제쯤 하는지요?
제로초님의 강의를 열심히 듣고 있습니다. 다름이 아니라 문득 프론트만큼 백엔드도 소켓설정이 중요할거 같은데요.. 슬랙 클론 코딩 관련 백엔드 강좌는 언제쯤 하는지요? 만약 계획이 없으시면 백엔드파트에서 소켓설정은 어떻게 파악해야 하는지요?
-
미해결Axure RP 9,10 - 서비스 기획자를 위한 최적의 프로토타이핑 툴
특정 지점 스크롤 고정 효과를 interaction으로 구현할 수 있을까요?
안녕하세요! 강사님. 이벤트 페이지같이 한 페이지 안에 많은 영역이 쭉 이어지는 화면을 작업중인데요, 스크롤이 쭉 흘러가는 것이 아닌 특정 지점에 도착하면 해당 영역이 끌려 올라가듯이 상단으로 스크롤되어 고정되는 효과를 액슈어 interaction으로 구현할 수 있는지 궁금합니다. 감사합니다.
-
해결됨파이썬(Python)으로 데이터 기반 주식 퀀트 투자하기 Part1
선생님 질문이 있습니다!
해당 행렬에서 영업이익률을 net income으로 바꿀 수는 없을까요. 즉 .rename같은 로직을 어떻게 사용할 수 있을까요. 먼저 원데이터셋에서 처리를 해야할까요 이상태에서 바꿀 수 있는 기능은 없을까요.
-
미해결15일간의 빅데이터 파일럿 프로젝트
kafka 실행이 안됩니다.
삭제된 글입니다
-
미해결프로그래밍 시작하기 : 파이썬 입문 (Inflearn Original)
You must select a language in the lower right, or save the file with an appropriate extension
atom과 python 설치 후에 print명령어(print('Hello Python Basic!')를 입력 후 실행해보는데... You must select a language in the lower right, or save the file with an appropriate extension. 이런 오류메시지가 뜨면서 실행이 안됩니다. 무얼 잘못한 걸까요? 환경은 윈도우10입니다.
-
미해결반응형 웹사이트 포트폴리오(App Official Landing Website)
질문입니다!
1)[ceo-access섹션 - html 구조와 내용]강의를 듣다가 div.inner밑에 div.content를 만든이유를 정확히 알고싶습니다! 2)그리고 [포트폴리오실전퍼블리싱]듣고 앱부터 들으라고 해주셔서 듣고있는데요 한번도 선생님께서는 clearfix를 사용안하시던데 혹시 이유가 있나요? 예전 국비지원으로 학원다녔을때 선생님들이 많이 사용하셨는데 내용을 까먹어서요... 3)마지막으로 죄송한데 이번강의후에 [반응형웹사이트Architecture Agency]들을예정인데요 웹디자인기능사 실기문제중 슬라이드관련된 강의가 있을까요? 문제풀다가 슬라이드랑 팝업창이 어려워서요ㅠㅠㅠ 따로 실기강의듣기엔 시간이 많이 부족해서요..ㅜㅜ
-
미해결[라즈베리파이] IoT 딥러닝 Computer Vision 실전 프로젝트
encodings = face_recognition.face_encodings(rgb, rois)
SULVEILLANCE_CAMERA.py 파일에서 face_recognition.face_encodings(rgb,rois) 에서 encoding 할 때 전에 face_encoding.py 에서와 달리 cnn을 사용하지 않는 이유가 있나요?? cnn 사용하지 않아도 정확히 인식하는 이유가 있을까요?
-
미해결자바스크립트 알고리즘 문제풀이 입문(코딩테스트 대비)
강의 보기 전 짰던 코드인데 혹시 봐주실 수 있나요?
선생님 강의를 보면서 많이 배웁니다. 이제 알고리즘 공부한지 7일째라 많이 미흡합니다. 제가 봤을 때 가독성은 떨어져도 일단 결과는 문제가 없는 코드였는데 빠뜨린 게 있는지, 투 포인터 알고리즘을 잘 이해한게 맞는지 봐주시겠어요? <script> function solution(m, arr){ let answer=0, lt = 0, rt = 0; let n = arr.length; let sum = 0; while(lt < n) { sum += arr[rt]; if(isNaN(sum) || sum > m || rt >= n) { sum = 0; lt++; rt = lt; } else if (sum <= m) { answer++; rt++; } } return answer; } let a1=[1,2,3,1,1,1,1]; console.log(solution(5, a1)); </script> 각 배열의 인덱스 (lt) 기준으로 차례대로 훑을 것이고, rt는, sum (누적합)이 m보다 작은 동안 계속 증가하면서 sum에 더하고요. sum이 m을 넘거나 rt가 배열 길이를 넘어서서 합이 NaN이 나오면 해당 인덱스에서 찾을 수 있는 부분 수열은 모두 찾았다고 간주하고 lt를 하나 증가시키고 sum 초기화, rt는 lt 있는 자리로 옮기는 로직입니다.
-
미해결3dsmax 초급부터 전문가까지 - 한방에 끝내는 3dsmax 강좌
독립모드 어떻게 하나요
삭제된 글입니다
-
미해결[개정판 2023-11-27] Spring Boot 3.x 를 이용한 RESTful Web Services 개발
500 Internal Server Error
안녕하세요 선생님, 수업 잘 듣고있습니다. POST 방식으로 http://localhost:8088/jpa/users/9001/posts를 Request했을 때 500 Internal Server Error가 나오는데, 어떻게 해결해야할 지 모르겠습니다ㅠㅠ [Postman] [UserJpaController.java] @PostMapping ("/users/{id}/posts") public ResponseEntity<Post> createPost(@PathVariable int id, @RequestBody Post post){ Optional<User> user = userRepository.findById(id); if (!user.isPresent()) { throw new UserNotFoundException(String.format("ID{%s} not found",id)); } //Post의 User를 방금 조회한 User정보로 설정 post.setUser(user.get());// logger.info(String.valueOf(user.get())); Post savedPost = postRepository.save(post); //id 값을 자동으로 지정 URI location =ServletUriComponentsBuilder.fromCurrentRequest() .path("/{id}") .buildAndExpand(savedPost.getId()) .toUri(); return ResponseEntity.created(location).build(); } [Debugging시 에러 메세지] UserJpaController.java 파일에서 post.setUser(user.get());에서 발생 [Post.java] public class Post { @Id @GeneratedValue private Integer id; private String description; @ManyToOne(fetch = FetchType.LAZY) @JsonIgnore private User user;} [User.java] @OneToMany(mappedBy = "user")private List<Post> posts;public User(int id, String name, Date joinDate, String password, String ssn) { this.id = id; this.name = name; this.joinDate = joinDate; this.password = password; this.ssn = ssn;}
-
해결됨실전! Querydsl
테스트 관련 질문이 있습니다!
안녕하세요 강사님. QA관련 글들을 보다가 이 글을 보았는데요. https://www.inflearn.com/questions/42585.여기 글에 강사님이 남긴 답변중에 "@DataJpaTest는 기본적으로 JPA 테스트를 위한 최소한의 스프링 빈만 컨테이너에 로딩합니다. 제가 사용하는 빈들을 기본 설정으로 로딩하지 않습니다. 그래서 저는 실무에서 테스트를 작성할 때 @DataJpaTest를 잘 사용하지 않습니다. 실무에서는 이미 @SpringBootTest를 사용하고 있는데, 이렇게 추가 테스트가 들어가면 스프링 컨테이너가 추가로 한번 더 실행되어야 합니다." 라고 하셔서 질문이 있습니다!! 만약 100개의 테스크 클래스가 있다고 가정하면, 50개의 클래스에서는 @SpringBootTest를 사용하고, 20개는 @DataJpaTes, 나머지 30개는 순수 자바 or 목을 사용한다고 하면 테스트케이스를 전체 실행할때, 50개의 클래스마다 스프링 컨텍스트가 뜨고, 내리고 그리고 나머지 30개는 @DataJpaTest에 필요한 의존성만 받고, 내리고를 반복 하잖아요~~ 근데 강사님께서는 "한번 더 실행되어야 합니다." 라고 말씀을 해주셨는데 @DataJPaTest가 아닌 @SpringBootTest를 이용해도 스프링 컨텍스트가 한 번더 실행되고 내려가고를 반복해야하는 거 아닌가요??!! 제가 잘못알고있었던건지 혼란이 오네요! ㅠㅠ
-
미해결바닥부터 시작하는 STM32 드론 개발의 모든 것
배터리 연결에 문제가 생긴 것 같습니다.
안녕하세요, 강의 잘 듣고 있습니다. 우선 6-4 선택적 캘리브레이션까지는 코드 작성을 완료했고, 부저음이 울리는 것 까지 확인한 상태입니다. 다만 6-4를 테스트하던 중 갑자기 조종기에서 보드에 배터리가 연결되지 않았다는 경고를 띄웠고, 확인해보니 연결 상태가 안좋은 것 같아서 다시 납땜을 진행했습니다. 문제는 그 다음부터 배터리를 연결해도 따로 보드에 전원 공급도 되지 않고, 조종기 역시 배터리가 연결되지 않았다고 뜨네요ㅜㅜ STLink를 연결한 상태에서는 다운로드도 그렇고 부저 작동도 제대로 되는데, 배터리가 연결이 안되는 것은 BEC의 문제인지 보드의 문제인지 확인할 방법이 있을까요?
-
미해결진짜 현업에서 쓰이는 직장인의 실무 엑셀 - 데이터 가공부터 분석까지
열방향으로 쌓이는 데이터의 정규화 문의드립니다.
선생님 안녕하세요. 강의를 통해서 파워쿼리로 크로스 테이블 형태를 테이블로 정규화(언피벗) 하는 방법을 배웠습니다. 혹시 다음과 같이 열방향으로 쌓인 데이터를 파워쿼리로 정규화할 수 있는지 문의드립니다. 열방향으로 데이터가 누적됨 | X1 | Y1 | X2 | Y2 | X2 | Y3 | ... 두개의 열로 데이터를 정규화하고자 합니다 X열 Y열 | X1 | Y1 | | X2 | Y2 | | X2 | Y3 | ...
-
미해결자바 ORM 표준 JPA 프로그래밍 - 기본편
DB가 분리되어 있는 경우??
안녕하세요? 명강의 잘 듣고 있습니다. 강의 내용과 큰 관련은 없긴 하지만 공부하던 중에 궁금증이 생겨 질문드립니다. 실무에서는 MSA 방식으로 프로젝트 진행이 많이 되다보니 DB도 물리적으로 분리되는 경우가 많은 것으로 알고 있습니다. 예를 들면, 회원을 관리하는 MEMBER DB와 주문을 관리하는 ORDER DB가 분리되어 있는 경우 JPA상에서 어떻게 엔티티 작성을 할 수 있나요?? 하나의 Member가 여러 개의 Order를 한다면 테이블이 하나의 DB에 있다면 다대일 관계 @ManyToOne, @JoinColumn 으로 그냥 셋팅하면 끝나는 문제인데 Member 테이블은 A DB에 있고 Order 테이블은 B DB에 있을 때 JPA상에서 서로를 참조 또는 Join 하는 방법이 궁금합니다. 질문이 좀 장황해서 이해가 되실지 모르겠지만... 답변 부탁드리겠습니다. 감사합니다.
-
미해결[리뉴얼] React로 NodeBird SNS 만들기
자동로그인 로깅 질문드려요
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 자동로그인 체크한 경우 쿠키 이용해서 ssr에서 loadmyinfo로 로그인 했던 유저 정보 갸져오잖아요? 이 경우와 페이지 이동시에 loadmyinfo로 유저 정보를 가져오는 경우와 분기 처리가 가능할까요? 유저가 접속할때 로깅을 하고싶은데 페이지 이동시에 호출되는 loadmyinfo와 겹쳐서 구분이 안되서요
-
미해결
redis와 nodejs 관련해서 강의가 있을까요?
nodeJS 와 Redis 대규모 서비스를 통한 예제가 있을까요? 관련 강의가 있으면 좋을 것 같은데 아니면 간단한 강의라도 있으면 좋겠습니다.