像公開資訊觀測站這樣常見的查詢網頁,對於操作者友善,網路爬蟲卻是個挑戰,有三道關卡:
一、柯南大眼鏡找到網路上那個關鍵封包。
二、Excel VBA加載IE瀏覽器強化裝備。
三、編寫程式以機器手臂操作瀏覽器。
這堂課帶你VBA網路爬蟲從無到有,從入門到進階:
https://www.b88104069.com/excel-course8_vba-web-finance
「公開資訊觀測站爬蟲」的推薦目錄:
- 關於公開資訊觀測站爬蟲 在 會計人的Excel小教室 Facebook 的精選貼文
- 關於公開資訊觀測站爬蟲 在 會計人的Excel小教室 Facebook 的精選貼文
- 關於公開資訊觀測站爬蟲 在 會計人的Excel小教室 Facebook 的精選貼文
- 關於公開資訊觀測站爬蟲 在 [問題] 公開資訊觀測站股東會爬蟲- 看板Python - 批踢踢實業坊 的評價
- 關於公開資訊觀測站爬蟲 在 公開資訊觀測站重大訊息主旨全文檢索爬蟲.R at master - GitHub 的評價
- 關於公開資訊觀測站爬蟲 在 公開資訊觀測站爬蟲的情報與評價,PTT、FACEBOOK 的評價
- 關於公開資訊觀測站爬蟲 在 公開資訊觀測站爬蟲的情報與評價,PTT、FACEBOOK 的評價
- 關於公開資訊觀測站爬蟲 在 行銷搬進大程式- 在製作股票爬蟲時,常常執行幾次後 - Facebook 的評價
- 關於公開資訊觀測站爬蟲 在 [問題] 公開資訊觀測站股東會爬蟲- 看板Python - Mo PTT 鄉公所 的評價
- 關於公開資訊觀測站爬蟲 在 2022公開資訊觀測站app-房地產熱門討論及分析,精選在PTT ... 的評價
- 關於公開資訊觀測站爬蟲 在 Python網頁爬蟲實戰 的評價
- 關於公開資訊觀測站爬蟲 在 股票分析:抓取公開資訊觀測站的資料(python) - Dcard 的評價
- 關於公開資訊觀測站爬蟲 在 [其他] 自動爬取公開觀測站股利報告書(python) - stock 的評價
- 關於公開資訊觀測站爬蟲 在 [問題] 爬蟲個股公開資訊- r_language - PTT數位生活 的評價
- 關於公開資訊觀測站爬蟲 在 [問題] 公開資訊觀測站股東會爬蟲- 看板Python | PTT數位生活區 的評價
- 關於公開資訊觀測站爬蟲 在 台灣證券交易所爬蟲在PTT/Dcard完整相關資訊 - 小文青生活 的評價
- 關於公開資訊觀測站爬蟲 在 台灣證券交易所爬蟲在PTT/Dcard完整相關資訊 - 小文青生活 的評價
公開資訊觀測站爬蟲 在 會計人的Excel小教室 Facebook 的精選貼文
公開資訊觀測站PDF財務報告不方便統計分析和網路爬蟲,導入XBRL(eXtensible Business Reporting Language,可延伸商業報導語言)後解決了問題。本文以Excel取得財報計算負債比率介紹。
歡迎追踪贊贊小屋VBA財務分析臉書專頁:
https://www.facebook.com/ExcelVBAFinance
公開資訊觀測站爬蟲 在 會計人的Excel小教室 Facebook 的精選貼文
今日練習題:除了VBA網路爬蟲,Excel也有取得網頁資料指令,輕鬆抓取衛武營展覽表
克林想開始學習財務報表分析,雖然有公開資訊觀測站,但沒辦法在網頁上進行分析,請參考影片,幫忙將大立光19Q4財報下載到Excel工作表上。
加入Telegram群組有測驗檔案,還有參考答案喔!
公開資訊觀測站爬蟲 在 公開資訊觀測站重大訊息主旨全文檢索爬蟲.R at master - GitHub 的推薦與評價
公開資訊觀測站 重大資訊詳細資料爬蟲程式. # 程式撰寫: 中山大學財務管理學系研究助理蘇彥庭. # 撰寫日期: 2018/06/24. # 程式說明: 此程式先至公開資訊觀測站重大資訊 ... ... <看更多>
公開資訊觀測站爬蟲 在 行銷搬進大程式- 在製作股票爬蟲時,常常執行幾次後 - Facebook 的推薦與評價
在製作股票爬蟲時,常常執行幾次後,就無法再向網站請求,尤其是在公開資訊觀測站中... ... 《股票小秘書》線上課踴躍報名中https://hahow.in/cr/stock-secretary. ... <看更多>
公開資訊觀測站爬蟲 在 [問題] 公開資訊觀測站股東會爬蟲- 看板Python - 批踢踢實業坊 的推薦與評價
各位大神們好!我在爬公開資訊觀測站的資料遇到一個問題,已經卡了我2天QQ
就是我想要抓取股東會的開會日期跟辦理過戶日期的時間。
爬蟲的程式碼,輸入股票代碼跟跳出新的視窗顯示文件都沒問題,但是要抓下開會日期跟
停止過戶日期都抓不到。
使用 tbody =driver.find_element_by_xpath(' //*[@id="table01"]/center/table[3]/
tbody')
然而 tbody.text都只顯示 '召集受益人大會公告',以致我自訂函數抓日期都抓不到。
不曉得是有哪邊出錯了,或是有什麼相關網址可以參考,再麻煩各位善心的大大們回答了
!謝謝!再次感謝大家
我的電腦是 Mac
使用的是 Anaconda 下的 Spyder
有參考 https://medium.com/smartalpha/使用-selenium-firefox-動態爬取公開觀測站
資料-eb84e7b034c
程式碼如下:
from openpyxl import * # for excel
from selenium import webdriver # open browser
from selenium.webdriver.support.ui import Select
from bs4 import BeautifulSoup # 解析html
import time #休息時間
import requests
driver = webdriver.Firefox(executable_path = '/usr/local/bin/geckodriver')
url = 'https://mops.twse.com.tw/mops/web/t108sb16_q1'
driver.get(url) # 前往這個網站
data_list = []
data_dict = {}
ticker = '2330'
try:
print(ticker,"Start searchinh!")
keyword = driver.find_element_by_id("co_id")
keyword.clear()
keyword.send_keys(ticker)
search_button = driver.find_element_by_css_selector("#search_bar1 > div >
input[type=button] ")
search_button.click()
time.sleep(2)
except:
driver.quit()
try:
go_to_data_page_button = driver.find_element_by_xpath(
"/html/body/center/table/tbody/tr/td/div[4]/table/tbody/tr/td/div/tabl
e/tbody/tr/td[3]/div/div[5]/div/center/form/table[2]/tbody/tr[2]/td[5]/input"
)
go_to_data_page_button.click()
except Exception as e:
print("查無:",ticker)
def find_between(s,first,last):
try:
start = s.index(first)+len(first)
end = s.index(last,start)
return s[start:end]
except ValueError:
return ""
def analyze_text(text):
shareholders_meeting_date = find_between(tbody.text,"開會日期:","").strip
()
shareholders_meeting_date = shareholders_meeting_date.replace("年",'/')
shareholders_meeting_date = shareholders_meeting_date.replace("月",'/')
shareholders_meeting_date = shareholders_meeting_date.replace("日",'')
shareholders_last_transfer_date = find_between(tbody.text,"辦理過戶日期時
間:","").strip()
shareholders_last_transfer_date = shareholders_last_transfer_date.replace(
"年",'/')
shareholders_last_transfer_date= shareholders_last_transfer_date.replace("
月",'/')
shareholders_last_transfer_date = shareholders_last_transfer_date.replace(
"日",'')
return [shareholders_meeting_date,shareholders_last_transfer_date ]
tbody = driver.find_element_by_xpath(' //*[@id="table01"]/center/table[3]/tbod
y')
analyze_text(tbody.text)
data_list.append([ticker, analyze_text(tbody.text)])
data_analyzed = analyze_text(tbody.text)
data_dict[ticker] = data_analyzed
print(ticker,":",data_analyzed)
driver.close()
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 180.217.46.235 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Python/M.1628950605.A.401.html
... <看更多>