我試圖發送一個用戶帶到服務器的圖像。我得到JPEG表示,將其附加到上傳照片所需的字符串,然後通過NSOutputStream發送數據。但是,當我試圖從服務器上取回照片時,我只能看到它從頂端的10%。任何幫助,將不勝感激。通過NSOutputStream發送UIImage
btw。插座打開並連接。
這裏是我的代碼:
NSString *requestString = [NSString stringWithFormat:@"SubmitPhoto::%@::", userID];
NSData * stringData = [requestString dataUsingEncoding:NSUTF8StringEncoding];
NSData *imgData = UIImageJPEGRepresentation(image, 1.0);
NSMutableData *completeData = [[NSMutableData alloc] initWithBytes:[stringData bytes] length:[stringData length]];
[completeData appendData:imgData];
//sending NSData over to server
[self.outputStream write:[completeData bytes] maxLength:[completeData length]];
你有沒有嘗試過不同的JPEG壓縮?像(image,0.4f) – ApolloSoftware 2013-03-20 15:02:07
我在想它是否超過了大小限制閾值 – ApolloSoftware 2013-03-20 15:02:25
你可以嘗試將圖像寫入內存(緩衝區)並嘗試渲染恢復的圖像嗎?我試圖在內存中執行此操作,並且它可以很好地處理1024 x 683照片。以下是一些示例代碼:https://gist.github.com/abellina/5205633。 – abellina 2013-03-20 15:37:46