일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 카프카
- Python3 #PEP
- 오블완
- Python #PEP
- k8s
- Glossary #Python
- fetch
- Push
- pull
- 티스토리챌린지
- Trino
- til #loguru #str #format
- nodeport
- Exception
- trino #hive #sync
- 쿠버네티스
- merge
- Git
- 타입 #type
- crossfit_geeks #크로스핏 #crossfit #당산크로스핏 #크로스핏긱스 #running #역도 #오운완 #크로스핏터 #Django가 고장날때까지
- pyenv
- aws #modernization #eks #k8s
- Today
- Total
목록2025/02 (11)
Django가 고장날때까지
TCP Retransmission은 기본적으로 ACK가 RTO(Retransmission Timeout) 안에 도착하지 못할 때 발생하는 현상이므로, 단순히 MTU를 줄인다고 해서 해결되는 문제는 아닙니다.일반적인 네트워크 환경에서 MTU 문제로 인한 Retransmission이 발생하는 경우는 Fragmentation이 빈번하거나, PMTUD(Path MTU Discovery) 관련 이슈가 있는 경우에 한정됩니다. 하지만 클라우드 환경에서는 대부분 자동으로 MTU 설정이 조정되기 때문에, 직접적으로 연관성이 낮을 가능성이 큽니다.
https://waspro.tistory.com/532
is_paused_upon_creation: bool | None = Nonejinja_environment_kwargs: dict | None = Nonerender_template_as_native_obj: bool = attrs.field(default=False, converter=bool)tags: MutableSet[str] = attrs.field(factory=set, converter=_convert_tags)owner_links: dict[str, str] = attrs.field(factory=dict)auto_register: bool = attrs.field(default=True, converter=bool)fail_fast: bool = attrs.field(default=Fa..
https://shuiky.tistory.com/entry/agnosterzsh-theme91-parse-error-near
def _run_task_by_selected_method(args, dag: DAG, ti: TaskInstance) -> None | TaskReturnCode: """ Run the task based on a mode. Any of the 3 modes are available: - using LocalTaskJob - as raw task - by executor """ if args.local: return _run_task_by_local_task_job(args, ti) if args.raw: return _run_raw_task(args, ti) _run_task_by_executor(args, dag, ti)..
https://github.com/pipeline-tools/gusty dag-factory toss dagbuilder 밋업

1. Airflow 에러 메시지 개선 및 모니터링 최적화발표자는 Airflow에서 발생하는 에러 메시지를 개선하고 디버깅을 효율적으로 수행하는 방법을 공유했습니다.주요 내용Airflow 콜백 시스템 개선테스크가 성공, 실패, 리트라이, 스킵될 때 콜백을 활용해 특정 액션을 자동 실행하도록 설정.예제 코드를 통해 콜백을 DAG 레벨 및 테스크 레벨에서 정의하는 방법 소개.Slack 알림 메시지 개선기존 Slack 알림은 제공하는 정보가 부족해 디버깅이 어려웠음.개선 내용:DAG 및 Task 상세 링크 추가.실패한 오퍼레이터 종류 표시 (PythonOperator, SparkOperator 등).Task 실행 시간(Duration) 포함 → 원인 분석 용이.Databricks 작업 실패 시 로그 접근성 향상..

http://localhost:8080/home?lastrun=failed -> 이 필터를 `run=all` 로 해야하고,dag의 실행과 수행과 관련된 내용은 웹서버 컨테이너 로그는 모든 http reqeust 요청에대한 정보가 남고 -> schueduler 컨테이너에 남습니다.
==================== HISTOGRAM ====================Histogram. Top 50 by instance count [All-objects] [Only-strong-ref]: 1: [3.45M/ 170MB] [2.79M/ 137MB] byte[] 2: [3.39M/74.6MB] [2.73M/60.2MB] java.lang.String 3: [ 820K/42.6MB] [ 772K/40.1MB] java.util.LinkedHashMap$Entry 4: [ 780K/46.8MB] [ 735K/44.1MB] cohttp://m.intellij.psi.impl.source.tree.LeafPsiElement 5: [ 755K/27.1MB] [ 4..
https://airflow.apache.org/docs/apache-airflow/stable/authoring-and-scheduling/dagfile-processing.html#dag-file-processing DAG File Processing — Airflow Documentation airflow.apache.org 위치: airflow/dag_processing/manager.pyairflow.dag_processing.manager.DagFileProcessorManager@attrs.defineclass DagFileProcessorManager(LoggingMixin): """ Manage processes responsible for parsing DAGs. ..