之前在 Visual Studio 2010 中要編寫 CSS 或 JavaScript 不是很方便,充其量只能說是個「文字編輯器」而已,不能被稱為「開發工具」,但這些編輯器在 Visual Studio 11 已經大幅進化,眾多的貼心功能不得不大聲叫好,尤其是 CSS 編輯器改進的幅度最大,就讓我們來看看有哪些增進的好用功能吧。
... 繼續閱讀 ...
本月 25 日的跨行動裝置網站開發 - 使用 ASP.NET 4.5 Beta & Visual Studio 11 Beta 研討會我針對 Visual Studio 11 Beta 在 HTML5、CSS3 與 JavaScript 的新功能做了許多展示,有鑑於功能強大,我覺得還是有必要專文介紹這些新功能,讓大家更瞭解 Visual Studio 11 新版開發工具到底對 Web 開發人員帶來多少幫助,由於 Visual Studio 11 功能非常多,因此打算以系列文章切分成多篇文章來介紹。
... 繼續閱讀 ...
前幾天我們公司的合作伙伴 EZTABLE 在他們的部落格發佈了一篇〔來用手機訂位吧!〕文章,當介紹到我們公司開發的〔一筵為訂 EZTABLE〕WP7 芒果版 App 時,卻發現我們的「一筵為訂」名稱被拆成了兩段,從畫面上看來會直覺的認為他們在我們 App 名稱中間加上了個「全形空白」,但實際去檢查原始碼又沒有發現空白的存在,到我的噗浪上發問才得知,原來是〔微軟正黑體〕在顯示 粗體 時會有特定文字會出現奇怪空白,這還是我第一次遇到這種事。
... 繼續閱讀 ...
我們有個客戶,他們的伺服器管理在資安方面控管十分嚴格,而且我們廠商也都沒有任何主機的管理者權限,若需要任何特殊的管理權限就必須要讓客戶端的維運人員進行委派設定才能使用,有一次我們需要設定工作排程器(Task Scheduler)定時執行特定的主控台應用程式(Console Applications),當設定完工作排程器之後卻發現無法以背景執行,也代表者使用者登入後就不能登出,不然就無法正常執行,但由於客戶的資安控管嚴格,任何遠端登入的工作階段狀態(Session)停留超過20分鐘就會自動登出,所以我們的主控台應用程式是絕對無法正常運作的,因此我便找出相關的設定方法提供給客戶的維運人員參考。
... 繼續閱讀 ...
我覺得要學習開發工具的使用,透過影音的方式觀摩學習應該是再好不過,因此我也經常到國外網站學習外國人使用工具的方式。前陣子替 MSDN 錄製的活用 Visual Studio 2010 擴充套件教學影片終於完成也上線了,我一共的錄製了五集,裡面集結了我最常用也最實用的擴充套件,各位可以看到我如何利用工具提升開發效率,無論 Visual Studio 2010 的新手或老手都可以當作參考,希望對大家有幫助。^_^
... 繼續閱讀 ...
前幾天有個朋友請問幫他查伺服器的問題,由於他購買的是國外的 VPS 虛擬私人伺服器,而該伺服器安裝的作業系統是 Windows Web Server 2008 R2 x64 版,怪的是,任何其他電腦都可以連的上,就只有我的個人電腦 Windows 7 Ultimate x64 怎樣也無法連接到他的伺服器,回應的錯誤訊息是「您的認證無效」,詳細說明是「用來連到 xx.xx.xx.xx 的認證無效。請輸入新的認證。」。我之前可以連接其他數十台伺服器都很正常,沒有連線失敗過,就只有這一台伺服器有這個問題,最後雖然沒有釐清問題發生原因,但我還是找到了解決辦法,以下就針對解決問題的過程做了一些筆記。
... 繼續閱讀 ...
最近已經開始使用 Visual Studio 11 來進行開發工作,我個人習慣先熟悉開發工具才開始日常的開發工作,這樣才能做的有效率、寫得很開心,本篇文章就是整理這段時間來發現的好用設定,將開發環境調整到自己最滿意的狀態。
... 繼續閱讀 ...
我們公司費時多月開發的 EZTable 24 小時餐廳訂位服務 WP7 芒果版【一筵為訂 EZTABLE】在本月初已成功上架到 Windows 市集,為了強化 App 售後服務 (其實是免費軟體) 所以我在公司內特別設置了一個專屬的 App 服務信箱,使用者若有任何 App 相關建議或問題回報都會自動轉寄給開發人員,讓我們的開發團隊能第一時間掌握使用者問題與需求。但是,這個通訊群組信箱竟然完全無法收到任何一封信,還是透過好心的使用者主動告知我們才發現的,實在有夠糗!以下就是此問題發生的原因與解決辦法 …
... 繼續閱讀 ...
我想大部分人都應該知道 robots.txt 檔案的功用 (如果不知道可參考我之前的文章),因為 robots.txt 是給網頁爬蟲機器人 (Web Crawler) 看的,搜尋引擎要來抓網站網頁進行索引前,都會「禮貌性」的先抓取 robots.txt 檔案回去分析,若特定 URL 真的允許抓網頁回去才會繼續下載網頁,不過看這個檔案的 人類就不一定這麼有禮貌,讓駭客知道了你「不想被抓的目錄」後,反而讓駭客產生興趣,進而企圖攻擊這些你不想被知道的網頁路徑,所以選擇不將這些路徑放到 robots.txt 定義檔裡,然而,這觀念是正確的嗎?No!!! 請繼續看下去…
... 繼續閱讀 ...