히딩크 감독이 연골 치료로 유명해진 제품
오백 ~ 천
관련 URL
http://www.newspim.com/news/view/20190326000981
http://news.mtn.co.kr/newscenter/news_viewer.mtn?gidx=2019032617152128781
이상사례 관련 URL
http://www.yakup.com/news/index.html?mode=view&cat=12&nid=228690
히딩크 감독이 연골 치료로 유명해진 제품
오백 ~ 천
관련 URL
http://www.newspim.com/news/view/20190326000981
http://news.mtn.co.kr/newscenter/news_viewer.mtn?gidx=2019032617152128781
이상사례 관련 URL
http://www.yakup.com/news/index.html?mode=view&cat=12&nid=228690
input {
file {
type => "json"
codec => "json" {
charset => "utf-8"
}
path => "/test.json"
start_position => "beginning"
sincedb_path => "/dev/null"
}
}
filter {
json {
source => "message"
}
# split records tag
split {
field => "[records]"
}
# new json type append
if [records][so2Grade] {
mutate {
add_field => {
"so2Grade" => "%{[records][so2Grade]}"
"pm25Grade1h" => "%{[records][pm25Grade1h]}"
"pm10Value24" => "%{[records][pm10Value24]}"
"khaiValue" => "%{[records][khaiValue]}"
"so2Value" => "%{[records][so2Value]}"
"coValue" => "%{[records][coValue]}"
"pm10Grade1h" => "%{[records][pm10Grade1h]}"
"o3Grade" => "%{[records][o3Grade]}"
"pm10Value" => "%{[records][pm10Value]}"
"khaiGrade" => "%{[records][khaiGrade]}"
"pm25Value" => "%{[records][pm25Value]}"
"no2Grade" => "%{[records][no2Grade]}"
"pm25Value24" => "%{[records][pm25Value24]}"
"pm25Grade" => "%{[records][pm25Grade]}"
"mangName" => "%{[records][mangName]}"
"coGrade" => "%{[records][coGrade]}"
"dataTime" => "%{[records][dataTime]}"
"no2Value" => "%{[records][no2Value]}"
"pm10Grade" => "%{[records][pm10Grade]}"
"o3Value" => "%{[records][o3Value]}"
}
# remove split records
remove_field => [ "[fields]", "[records]" ]
}
# convert field
mutate {
convert => {
"so2Grade" => "float"
"pm25Grade1h" => "float"
"pm10Value24" => "float"
"khaiValue" => "float"
"so2Value" => "float"
"coValue" => "float"
"pm10Grade1h" => "float"
"o3Grade" => "float"
"pm10Value" => "float"
"khaiGrade" => "float"
"pm25Value" => "float"
"no2Grade" => "float"
"pm25Value24" => "float"
"pm25Grade" => "float"
"coGrade" => "float"
"no2Value" => "float"
"pm10Grade" => "float"
"o3Value" => "float"
"mangName" => "string"
}
}
}
output {
stdout { codec => json }
file {
codec => json_lines
path => "/output_test.json"
}
elasticsearch {
hosts => "localhost"
index => "atmosphere"
}
}
======================================================
input {
file {
type => "json"
#codec => "json"
codec => "plain"
path => "/media/sf_Class/jptest/jongrogu20190320.json"
start_position => "beginning"
sincedb_path => "/dev/null"
}
}
filter {
json {
source => "message"
}
# split records tag
split {
field => "[records]"
}
# new json type append
mutate {
# remove split records
remove_field => [ "[fields]", "[records]" ]
add_field => {
"so2Grade" => "%{[records][so2Grade]}"
"pm25Grade1h" => "%{[records][pm25Grade1h]}"
"pm10Value24" => "%{[records][pm10Value24]}"
"khaiValue" => "%{[records][khaiValue]}"
"so2Value" => "%{[records][so2Value]}"
"coValue" => "%{[records][coValue]}"
"pm10Grade1h" => "%{[records][pm10Grade1h]}"
"o3Grade" => "%{[records][o3Grade]}"
"pm10Value" => "%{[records][pm10Value]}"
"khaiGrade" => "%{[records][khaiGrade]}"
"pm25Value" => "%{[records][pm25Value]}"
"no2Grade" => "%{[records][no2Grade]}"
"pm25Value24" => "%{[records][pm25Value24]}"
"pm25Grade" => "%{[records][pm25Grade]}"
"mangName" => "%{[records][mangName]}"
"coGrade" => "%{[records][coGrade]}"
"dataTime" => "%{[records][dataTime]}"
"no2Value" => "%{[records][no2Value]}"
"pm10Grade" => "%{[records][pm10Grade]}"
"o3Value" => "%{[records][o3Value]}"
}
}
# validation
mutate {
gsub => [
"so2Grade" , "[^0-9.]" , "",
"pm25Grade1h" , "[^0-9.]" , "",
"pm10Value24" , "[^0-9.]" , "",
"khaiValue" , "[^0-9.]" , "",
"so2Value" , "[^0-9.]" , "",
"coValue" , "[^0-9.]" , "",
"pm10Grade1h" , "[^0-9.]" , "",
"o3Grade" , "[^0-9.]" , "",
"pm10Value" , "[^0-9.]" , "",
"khaiGrade" , "[^0-9.]" , "",
"pm25Value" , "[^0-9.]" , "",
"no2Grade" , "[^0-9.]" , "",
"pm25Value24" , "[^0-9.]" , "",
"pm25Grade" , "[^0-9.]" , "",
"coGrade" , "[^0-9.]" , "",
"no2Value" , "[^0-9.]" , "",
"pm10Grade" , "[^0-9.]" , "",
"o3Value" , "[^0-9.]" , ""
]
}
# convert field
mutate {
convert => {
"so2Grade" => "float"
"pm25Grade1h" => "float"
"pm10Value24" => "float"
"khaiValue" => "float"
"so2Value" => "float"
"coValue" => "float"
"pm10Grade1h" => "float"
"o3Grade" => "float"
"pm10Value" => "float"
"khaiGrade" => "float"
"pm25Value" => "float"
"no2Grade" => "float"
"pm25Value24" => "float"
"pm25Grade" => "float"
"coGrade" => "float"
"no2Value" => "float"
"pm10Grade" => "float"
"o3Value" => "float"
}
}
# date
date {
match => ["dataTime" , "yyyy-MM-dd HH:mm"]
}
}
output {
stdout { codec => rubydebug }
file {
codec => json_lines
path => "/media/sf_Class/jptest/output_test.json"
}
# elasticsearch {
# hosts => "localhost"
# index => "atmosphere"
# }
}
공공데이터 포털 API 호출 후 JSON 여러 행으로 출력하기 (0) | 2019.03.28 |
---|
1. 커맨드 환경(CUI)에 화면 크기 1024*768로 설정
- root 권한
#> vi /etc/default/grub
다음 라인 수정
GRUB_CMDLINE_LINUX=" .....(중략)... vga=791"
grub 업데이트
#> grub2-mkconfig -o /boot/grub2/grub.cfg
시스템 재시작
#> sync
#> reboot
2. daum repository 설정 추가
- root 권한
#> cd /etc/yum.repos.d/
#> vi daum.repo
###### 아래의 내용을 추가 #########
[base]
name=CentOS-$releasever - Base
baseurl=http://ftp.daum.net/centos/7/os/$basearch/
gpgcheck=1
gpgkey=http://ftp.daum.net/centos/RPM-GPG-KEY-CentOS-7
[updates]
name=CentOS-$releasever - Updates
baseurl=http://ftp.daum.net/centos/7/updates/$basearch/
gpgcheck=1
gpgkey=http://ftp.daum.net/centos/RPM-GPG-KEY-CentOS-7
[extras]
name=CentOS-$releasever - Extras
baseurl=http://ftp.daum.net/centos/7/extras/$basearch/
gpgcheck=1
gpgkey=http://ftp.daum.net/centos/RPM-GPG-KEY-CentOS-7
[centosplus]
name=CentOS-$releasever - Plus
baseurl=http://ftp.daum.net/centos/7/centosplus/$basearch/
gpgcheck=1
gpgkey=http://ftp.daum.net/centos/RPM-GPG-KEY-CentOS-7 .
- repo clear 후 재로딩
#> yum clean all
- repo 목록 조회
#> yum repolist all
3. virtual box 자동 화면 해상도 관련
- root 권한
yum install -y make kernel-devel gcc perl bzip2
yum update -y kernel*
Virtual Box -> 장치 -> 게스트 확장 CD 이미지 삽입
Centos 7 Firewall-cmd 관련 정보들 (0) | 2019.05.08 |
---|---|
Centos 7 서버 설정 하기 (0) | 2019.04.17 |
Centos 6.3 에서 SAMBA 설정하기 (4) | 2013.01.22 |
Centos 6.3 에서 VNC 설치 하기 (0) | 2013.01.21 |
CENTOS 5 버전의 SSH 관련 버그 오류 (0) | 2010.10.05 |
D3 (0) | 2019.05.31 |
---|---|
svn 백업 및 복구 (1) | 2019.05.08 |
서버 용량 산정 / 성능 측정 / tpmc / bops / tpc / tpc-h (0) | 2013.05.10 |
오라클 접속 ORA-12505 에러 관련 (0) | 2013.05.02 |
Magicar AF BRONZE (매직카 브론즈) (0) | 2011.11.30 |
출처 : http://ukja.tistory.com/232 에서 퍼온 자료입니다.
특정 Query를 수행한 후, 그 결과를 가로 형태가 아닌 세로 형태로 보기 좋게 출력하고 싶다. Tom Kyte가 멋지게 이 작업을 해냈는데, 핵심은 DBMS_SQL 패키지를 이용한 Dynamic SQL에 있다.
약간의 귀찮은 코딩이 필요하지만 그 효과는 입이 딱 벌어질 정도이다. 다음과 같이 아주 보기 편하게 데이터를 출력할 수 있다.
SYSTEM> grant execute on print_table to public;
SYSTEM> create public synonym print_table for scott.print_table;
참고로, 나는 print_table 함수를 접하는 순간 Toad가 더 이상 불필요하게 되었다.
DBMS_SQL 패키지를 이용한 Dynamic SQL 구현은 너무 강력하다. 아래는 내가 실제로 테스트를 할 때 많이 사용하는 간단한 PL/SQL Script이다. Column이 50개 이상 존재하는 V$SQL_SHARED_CURSOR 뷰에서 값이 'Y'인 것만 뽑아서 예쁘게 출력하고 싶기 때문이다.
만일 이러한 수고없이 V$SQL_SHARED_CURSOR 뷰를 보려고 하면, 곧 좌절하고 말 것이다. 아래 데이터를 보면서 좌절감을 잠깐 맛보자...
너무 많은 데이터때문에 분석하는 시간이 즐거운 시간이 아니라 고생스러운(주로 눈이) 시간이 되어 버린다. 하지만 다음과 같이 간단하게 이 문제를 해결할 수 있다.
이런 간단하지만 아름다운 결과들이 엔지니어라면 누구나 남을 한번쯤은 놀라게 할 만한 프로그래밍 실력이 필요한 이유이다.
출처: http://ukja.tistory.com/232 [오라클 성능 문제에 대한 통찰 - 조동욱]
출처: http://ukja.tistory.com/232 [오라클 성능 문제에 대한 통찰 - 조동욱]
오라클 SR 처리를 위한 사전 준비 (0) | 2018.01.17 |
---|---|
ora-00257 archiver error. connect internal only until freed (0) | 2018.01.08 |
expdp failed with ORA-31641: unable to create dump file ORA-27054: NFS file system where the file is created or resides is not mounted with correct options (0) | 2018.01.08 |
impdp - ORA-31640 ORA-31693 ORA-19505 ORA-27037 (0) | 2018.01.08 |
PCTFREE,PCTUSED,FREELIST (0) | 2018.01.05 |
출처: http://joke00.tistory.com/168 [Smile virus]
Harden Logical Names를 선택해 준 이유는 아래도 써 놨듯이, 이 작업을 수행하지 않으면, Column의 Comment가 변경되면 논리명도 자동으로 변경되기 때문입니다. ERwin r7에서는 다행이 이 기능을 지원하기 때문에 이후의 Comment 변경이 논리명에 영향을 주지 않도록 할 수 있습니다.
논리명과 물리명에 대한 수정 작업을 위해서는 다신 논리모델과 물리모델에서 전체를 선택하고 Unharden Logical Name과 Unharden Physical Name을 선택하면 됩니다 ^^
출처: http://joke00.tistory.com/168 [Smile virus]
오라클 SR 처리를 위해
아래와 같은 정보를 수집하면 편하다...
ulimit -a : 메모리 정보
uname -a : OS 정보
adrci : 문제가 발생한 내역 압축하기 (ips 명령 사용)
opatch : 현재 패치 내역 조회하기
testdb01:/oracle_test] ulimit -a
time(seconds) unlimited
file(blocks) unlimited
data(kbytes) 2000000
stack(kbytes) 8192
memory(kbytes) unlimited
coredump(blocks) 4194303
testdb01:/oracle_test] uname -a
HP-UX testdb01 B.11.23 U ia64 1770507378 unlimited-user license
testdb01:/tmp] adrci
ADRCI: Release 11.1.0.7.0 - Production on Sat Jan 13 09:25:50 2018
Copyright (c) 1982, 2007, Oracle. All rights reserved.
ADR base = "/oralog_test/dblog"
adrci> show problem
ADR Home = /oralog_test/dblog/diag/rdbms/testdb/testdb1:
*************************************************************************
PROBLEM_ID PROBLEM_KEY LAST_INCIDENT LASTINC_TIME
-------------------- ----------------------------------------------------------- -------------------- ----------------------------------------
14 ORA 600 [kjuscv] 1630464 2018-01-12 22:36:29.336735 +09:00
13 ORA 600 [kjucvl:!busy] 1630463 2018-01-12 22:36:25.059486 +09:00
14 rows fetched
adrci> show incident
ADR Home = /oralog_test/dblog/diag/rdbms/testdb/testdb1:
*************************************************************************
INCIDENT_ID PROBLEM_KEY CREATE_TIME
-------------------- ----------------------------------------------------------- ----------------------------------------
1630464 ORA 600 [kjuscv] 2018-01-12 22:36:29.336735 +09:00
1630463 ORA 600 [kjucvl:!busy] 2018-01-12 22:36:25.059486 +09:00
50 rows fetched
adrci> ips pack problem 13 in /tmp
Generated package 9 in file /tmp/ORA600kju_20180113092623_COM_1.zip, mode complete
adrci> ips pack problem 14 in /tmp
Generated package 10 in file /tmp/ORA600kju_20180113092815_COM_1.zip, mode complete
adrci> ips pack incident 1630464 in /tmp
Generated package 11 in file /tmp/ORA600kju_20180113092948_COM_1.zip, mode complete
adrci> ips pack incident 1630463 in /tmp
Generated package 12 in file /tmp/ORA600kju_20180113093112_COM_1.zip, mode complete
opatch lsinventory
오라클 수평 출력 print_table 기능 (0) | 2018.02.04 |
---|---|
ora-00257 archiver error. connect internal only until freed (0) | 2018.01.08 |
expdp failed with ORA-31641: unable to create dump file ORA-27054: NFS file system where the file is created or resides is not mounted with correct options (0) | 2018.01.08 |
impdp - ORA-31640 ORA-31693 ORA-19505 ORA-27037 (0) | 2018.01.08 |
PCTFREE,PCTUSED,FREELIST (0) | 2018.01.05 |
오라클 import 과정중에
아래와 같이 에러를 만났다
ora-00257 archiver error. connect internal only until freed
원인은
아카이브 full로 인해 발생
근데 문제는 ASM 디스크 였다
아래의 쿼리를 통해 조회하면 archive err 상태를 확인 가능하다
SQL> select * from v$archive_dest;
방법은 수동 삭제와 자동 삭제가 있고
개발서버라 고민없이 RMAN으로 접속하여 자동으로 지웠다.
수동삭제
Subject: How To Delete Archive Log Files Out Of +Asm?
Doc ID: Note:300472.1
The information in this document applies to:
Oracle Server - Enterprise Edition - Version: 10.1.0.3
Information in this document applies to any platform.
Goal
How to delete archive log files out of +ASM?
Fix
1. Run the following SQL to find the full path for the archivelog files.
SELECT CONCAT('+'||gname, SYS_CONNECT_BY_PATH(aname,'/')) full_path,
dir, sys FROM (SELECT g.name gname, a.parent_index pindex, a.name aname,
a.reference_index rindex, a.ALIAS_DIRECTORY dir, a.SYSTEM_CREATED sys
FROM v$asm_alias a, v$asm_diskgroup g
WHERE a.group_number = g.group_number)
START WITH (MOD(pindex, POWER(2, 24))) = 0
CONNECT BY PRIOR rindex = pindex
ORDER BY dir desc, full_path asc;
The results will look similar to the following.
+DSKGRP1/MAXCP/ARCHIVELOG/2004_11_15/thread_1_seq_970.1236.1
2. When the file is created by Oracle the format in +ASM is:
DISKGROUP_NAME/db_name/file_type/creation_date/<file_name>.
This SQL will generate the SQL necessary to delete all archivelogs out of +ASM.
Note: Change the <diskgroup> and <dbname> to the actual values from what is returned from previous SQL output.
select 'alter diskgroup DSKGRP1 drop file
''<diskgroup>/<dbname>/ARCHIVELOG/'|| to_char(b.creation_date,'YYYY_MM_DD') ||'/'|| a.name||''';'
from v$asm_alias a, v$asm_file b
where a.group_number = b.group_number
and a.file_number = b.file_number
and b.type='ARCHIVELOG'
order by a.name;
This will generate SQL similar to the following.
alter DISKGROUP DSKGRP1 drop file '+DSKGRP1/MAXCP/ARCHIVELOG/2004_11_15/thread_1_seq_970.1236.1';
자동삭제
$> rman target /
RMAN> crosscheck archivelog all;
RMAN> delete noprompt archivelog all;
참고 : http://interpiastory.tistory.com/21
http://kooremo.tistory.com/entry/ora00257archiver-error-Connect-internal-only-until-freed
http://database.sarang.net/?inc=read&aid=30826&criteria=oracle&subcrit=&id=&limit=20&keyword=blob&page=3
오라클 수평 출력 print_table 기능 (0) | 2018.02.04 |
---|---|
오라클 SR 처리를 위한 사전 준비 (0) | 2018.01.17 |
expdp failed with ORA-31641: unable to create dump file ORA-27054: NFS file system where the file is created or resides is not mounted with correct options (0) | 2018.01.08 |
impdp - ORA-31640 ORA-31693 ORA-19505 ORA-27037 (0) | 2018.01.08 |
PCTFREE,PCTUSED,FREELIST (0) | 2018.01.05 |
impdp 할때나 오류가 발생하면
3가지 해결 방법이 있는거 같으나...
mount 를 통해 깔끔하게 해결하는것을 권장....
오라클 SR 처리를 위한 사전 준비 (0) | 2018.01.17 |
---|---|
ora-00257 archiver error. connect internal only until freed (0) | 2018.01.08 |
impdp - ORA-31640 ORA-31693 ORA-19505 ORA-27037 (0) | 2018.01.08 |
PCTFREE,PCTUSED,FREELIST (0) | 2018.01.05 |
오라클 undo / Pending Offline Segment (0) | 2018.01.04 |
impdp ORA-31640 ORA-31693 ORA-19505 ORA-27037
금일 IMPDP 명령어로
상콤하게 import 작업을 하다가 위와 같은 ora 에러르 만났다...
처음엔 깜놀 했다가
parallel 옵션 을 사용할 때 dump 파일을 모든 rac 노드가 읽지 못하기 때문이라고 알게되었다
cluster=N 옵션을 통해 해결 가능하다
아래는 원문이다.
When I am trying to import schema, The impdp is failed to open dump file. see below script I am using.
$ cat parfile.par
USERID='/ as sysdba'
DIRECTORY=IMP_DP
DUMPFILE=SMARTSUPPY_SCHEMA.dmp
logfile=SMARTSUPPY_SCHEMA_09nov2014.log
parallel=10
SCHEMAS='SMARTSUPPY_SCHEMA'
I got below error while import..
ORA-31693: Table data object "SMARTSUPPY_SCHEMA"."BPM_TRANS_90000":"P297" failed to load/unload and is being skipped due to error:
ORA-31640: unable to open dump file "/export/APSDBSR-1351/SMARTSUPPY_SCHEMA.dmp" for read
ORA-19505: failed to identify file "/export/APSDBSR-1351/SMARTSUPPY_SCHEMA.dmp"
ORA-27037: unable to obtain file status
Linux-x86_64 Error: 2: No such file or directory
Additional information: 3
. . imported "SMARTSUPPY_SCHEMA"."BPM_TRANS_90000":"P315" 265.3 MB 1484775 rows
. . imported "SMARTSUPPY_SCHEMA"."TRC_HOP_T_90000":"P139" 219.7 MB 1402774 rows
The issue is due to I am using PARALLEL=10, so the dump file directory not being accessible from all nodes in the RAC. When we use PARALLEL > 1 option the child thread will be started in other node to complete the job faster, when job started in other node the dump file can't access the file. Due to this we receive this error. To fix the issue either you place the dump file to be accessed from all the nodes in that RAC environment or use cluster=N option.
Added cluster=N parameter in parfile and started the import again.
$ cat parfile.par
USERID='/ as sysdba'
DIRECTORY=IMP_DP
DUMPFILE=SMARTSUPPY_SCHEMA.dmp
logfile=SMARTSUPPY_SCHEMA_09nov2014.log
parallel=10
SCHEMAS='SMARTSUPPY_SCHEMA'
CLUSTER=N
$
$ nohup impdp parfile=parfile.par &
[1] 27620
> nohup: ignoring input and appending output to `nohup.out'
$
$ jobs -l
[1]+ 27620 Running nohup impdp parfile=parfile.par &
$
$ tail -f SMARTSUPPY_SCHEMA_09nov2014.log
Master table "SYS"."SYS_IMPORT_SCHEMA_03" successfully loaded/unloaded
Starting "SYS"."SYS_IMPORT_SCHEMA_03": /******** AS SYSDBA parfile=parfile.par
Processing object type SCHEMA_EXPORT/USER
Processing object type SCHEMA_EXPORT/SYSTEM_GRANT
Processing object type SCHEMA_EXPORT/ROLE_GRANT
Processing object type SCHEMA_EXPORT/DEFAULT_ROLE
Processing object type SCHEMA_EXPORT/TABLESPACE_QUOTA
Processing object type SCHEMA_EXPORT/PRE_SCHEMA/PROCACT_SCHEMA
Processing object type SCHEMA_EXPORT/SEQUENCE/SEQUENCE
Processing object type SCHEMA_EXPORT/TABLE/TABLE
Processing object type SCHEMA_EXPORT/TABLE/TABLE_DATA
. . imported "SMARTSUPPY_SCHEMA"."BPM_COMPONENTS_90000":"P475" 1.956 GB 6711857 rows
. . imported "SMARTSUPPY_SCHEMA"."BPM_COMPONENTS_90000":"P480" 1.965 GB 6794127 rows
. . imported "SMARTSUPPY_SCHEMA"."BPM_COMPONENTS_90000":"P474" 1.958 GB 6727517 rows
. . imported "SMARTSUPPY_SCHEMA"."BPM_COMPONENTS_90000":"P479" 1.921 GB 6616816 rows
. . imported "SMARTSUPPY_SCHEMA"."BPM_COMPONENTS_90000":"P478" 1.903 GB 6512491 rows
. . imported "SMARTSUPPY_SCHEMA"."BPM_COMPONENTS_90000":"P481" 1.909 GB 6618578 rows
Hope this will help you.. :)
Best Regards,
Chowdari
출처 : http://mbc-dba.blogspot.kr/2014/11/impdp-ora-31640-ora-31693-ora-19505-ora.html
ora-00257 archiver error. connect internal only until freed (0) | 2018.01.08 |
---|---|
expdp failed with ORA-31641: unable to create dump file ORA-27054: NFS file system where the file is created or resides is not mounted with correct options (0) | 2018.01.08 |
PCTFREE,PCTUSED,FREELIST (0) | 2018.01.05 |
오라클 undo / Pending Offline Segment (0) | 2018.01.04 |
오라클 11g 자동 통계 정보 수집 내용 변경 (0) | 2017.12.30 |