Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[20210815] Weekly AI ArXiv 만담 #21

Closed
jungwoo-ha opened this issue Aug 14, 2021 · 3 comments
Closed

[20210815] Weekly AI ArXiv 만담 #21

jungwoo-ha opened this issue Aug 14, 2021 · 3 comments

Comments

@jungwoo-ha
Copy link
Owner

jungwoo-ha commented Aug 14, 2021

@hollobit
Copy link

hollobit commented Aug 15, 2021

대한의료인공지능학회 2021 summer school - 성료

구글 인력·컴퓨팅 없이 알파폴드2 재현한 로제타폴드, 어떻게 가능했나?...연구 주도한 백민경 박사 발표 내용

KAIST, 보건의료 분야 인공지능 활용 가이드 개발

북한, 미국 MIT 데이터로 X레이 AI 분석 기술 개발

What to expect from OpenAI’s Codex API

Watch out, GPT-3, here comes AI21's 'Jurassic' language model

Overcoming the limitations of scanning electron microscopy with AI

AI ethics in the real world: FTC commissioner shows a path toward economic justice

@ghlee3401
Copy link

Arxiv

  • Applying the Information Bottleneck Principle to Prosodic Representation Learning

    image

    • Sample : https://patrick-g-zhang.github.io/pt/
    • Abstract
      • prosodic representation learning을 information bottleneck (IB) 관점에서 다룸
      • reference audio의 prosody를 frame-level로 추출하고 average pooling을 이용하여 phoneme-level, syllable-level, word-level순으로 acoustic feature를 만듦
      • bottleneck layer에서 VQ-VAE를 사용하여 acoustic feature에서 non-prosodic information (e.g., speaker, content)을 제외하고 prosodic representation을 만듦
      • bottleneck layer에서 input feature를 quantize해서 사용하고 quantize된 값들에 대한 dictionary를 학습하게 됨
      • 여기서 information bottleneck (IB)의 capacity가 dictionary 크기와 비례하고 capacity에 따라 prosodic representation이 달라짐

@Kyung-Min
Copy link

Kyung-Min commented Aug 15, 2021

  • Paper
    • AdamDGN: Adaptive Memory using Dynamic Graph Networks for Staleness Problem in Recommender System
      • 추천시스템에서 오랫동안 방문하지 않았던 유저들이 재방문했을 때 추천성능이 떨어지는 staleness problem을 다룸
      • Dynamic Graph Neural Networks로 유저들의 representation을 계산하고 메모리에 저장
      • 메모리는 deep cluster를 사용해서 clustering
      • Cluster assignment를 pseudo label 로 삼아서 self-supervised learning하고 centroid를 노드의 메모리에 추가
      • 오랫동안 유저들이 방문하지 않더라도 assign된 pseudo lablel에 따라 꾸준히 representation 업데이트
      • Amazon’s purchase review dataset에 테스트했을 때 기존 TGN, JODIE 보다 더 우수한 성능을 보임
    • Global-Local Item Embedding for Temporal Set Prediction
      • Temporal set prediction을 풀기 위해 사용자의 과거 history를 참고
      • Target user의 과거 history (local) + target user 외 전체 user들의 과거 history (global) 참고
      • local은 graph neural networks (DNNTSP)로 학습, global은 VAE로 학습
      • 모델 output은 Tweedie distribution으로 모델링
      • Set prediction 데이터셋에서 sota 성능

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

4 participants