• 카테고리

    질문 & 답변
  • 세부 분야

    알고리즘 · 자료구조

  • 해결 여부

    미해결

cutting edge 시간 복잡도 관련

22.04.01 21:17 작성 조회수 102

1

안녕하세요.
 
소스코드를 보면 지금까지 잔돈의 총 합이 T보다 크면 가지를 치게 구현이 되어있는데, 만약 제가 짠 코드처럼 저런 경우에 추가적으로 앞으로 남은 모든 잔돈의 총 합을 현재 합에 더해도 T보다 작은경우까지 가지를 치게 되면 sum(tot[L:]) 이 파트가 매 재귀함수마다 계산을 하게 되면서 오히려 시간복잡도가 늘어나는지 궁금합니다.
(사실 리스트 인덱싱 및 내장함수 sum을 실행할때 시간복잡도 빅o로 어떤지가 궁금하기도 합니다.)
t = int(input())
k = int(input())
ary = [list(map(int,input().split())) for _ in range(k)]
cnt = 0
tot = [ x[0]*x[1] for x in ary ]
def DFS(L,al):
    global cnt

    if al == t:
        cnt +=1
        return
    if L == k:
        return
    if al + sum(tot[L:]) < t or al > t:
        return
    else:
        for i in range(ary[L][1]+1):
            DFS(L+1,al + ary[L][0]*i)

DFS(0,0)
print(cnt)

답변 1

답변을 작성해보세요.

0

안녕하세요^^

재귀호출마다 sum함수가 돌아야 하는 부담이 있지만 가지치기 효과과 더 크게 작용할 것 같습니다.

좋은 코드입니다.